Resep Personalisasi-Ranking - Amazon Personalize

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Resep Personalisasi-Ranking

Resep Personalized-Ranking menghasilkan peringkat item yang dipersonalisasi. Peringkat yang dipersonalisasi adalah daftar item yang direkomendasikan yang diberi peringkat ulang untuk pengguna tertentu. Ini berguna jika Anda memiliki koleksi item yang dipesan, seperti hasil penelusuran, promosi, atau daftar kurasi, dan Anda ingin memberikan peringkat ulang yang dipersonalisasi untuk setiap pengguna Anda. Misalnya, dengan Personalized-Ranking, Amazon Personalize dapat memberi peringkat ulang hasil penelusuran yang Anda hasilkan. OpenSearch

Untuk melatih model, resep Peringkat yang Dipersonalisasi menggunakan data dalam kumpulan data interaksi Item Anda, dan jika Anda membuatnya, kumpulan data Item dan kumpulan data Pengguna di grup kumpulan data Anda (kumpulan data ini opsional). Dengan Personalized-Ranking, dataset Item Anda dapat disertakan Metadata teks tidak terstruktur dan kumpulan data interaksi Item Anda dapat disertakan. Metadata kontekstual Untuk mendapatkan peringkat yang dipersonalisasi, gunakan GetPersonalizedRanking API.

Setelah Anda membuat versi solusi, pastikan Anda selalu memperbarui versi dan data solusi Anda. Dengan Personalized-Ranking, Anda harus secara manual membuat versi solusi baru (melatih ulang model) untuk Amazon Personalize untuk mempertimbangkan item baru untuk rekomendasi dan memperbarui model dengan perilaku terbaru pengguna Anda. Maka Anda harus memperbarui kampanye apa pun menggunakan versi solusi. Untuk informasi selengkapnya, lihat Mempertahankan relevansi rekomendasi.

catatan

Jika Anda memberikan item tanpa data interaksi untuk peringkat, Amazon Personalize akan mengembalikan item ini tanpa skor rekomendasi dalam respons GetPersonalizedRanking API.

Resep ini memiliki sifat sebagai berikut:

  • Namaaws-personalized-ranking

  • Resep Nama Sumber Daya Amazon (ARN) — arn:aws:personalize:::recipe/aws-personalized-ranking

  • Algoritma ARNarn:aws:personalize:::algorithm/aws-personalized-ranking

  • Transformasi fitur ARNarn:aws:personalize:::feature-transformation/JSON-percentile-filtering

  • Jenis resepPERSONALIZED_RANKING

Hyperparameter

Tabel berikut menjelaskan hyperparameters untuk resep Personalize-Ranking. Hyperparameter adalah parameter algoritma yang dapat Anda sesuaikan untuk meningkatkan kinerja model. Algoritma hyperparameters mengontrol bagaimana kinerja model. Hyperparameter featurisasi mengontrol cara memfilter data yang akan digunakan dalam pelatihan. Proses memilih nilai terbaik untuk hyperparameter disebut optimasi hyperparameter (HPO). Untuk informasi selengkapnya, lihat Hyperparameters dan HPO.

Tabel ini juga menyediakan informasi berikut untuk setiap hyperparameter:

  • Rentang: [batas bawah, batas atas]

  • Jenis nilai: Integer, Continuous (float), Kategoris (Boolean, daftar, string)

  • HPO tunable: Dapatkah parameter berpartisipasi dalam optimasi hyperparameter (HPO)?

Nama Penjelasan
Hiperparameter algoritma
hidden_dimension

Jumlah variabel tersembunyi yang digunakan dalam model. Variabel tersembunyi membuat ulang riwayat pembelian pengguna dan statistik item untuk menghasilkan skor peringkat. Tentukan lebih banyak dimensi tersembunyi saat kumpulan data interaksi Item Anda menyertakan pola yang lebih rumit. Menggunakan dimensi yang lebih tersembunyi membutuhkan dataset yang lebih besar dan lebih banyak waktu untuk diproses. Untuk memutuskan nilai optimal, gunakan HPO. Untuk menggunakan HPO, atur performHPO ke true saat Anda memanggil CreateSolution dan CreateSolutionVersion operasi.

Nilai default: 149

Rentang: [32, 256]

Jenis nilai: Integer

HPO dapat disetel: Ya

bptt

Menentukan apakah akan menggunakan teknik propagasi balik melalui waktu. Propagasi balik melalui waktu adalah teknik yang memperbarui bobot dalam algoritme berbasis jaringan saraf berulang. Gunakan kredit jangka panjang bptt untuk menghubungkan hadiah yang tertunda ke acara awal. Misalnya, hadiah yang tertunda dapat berupa pembelian yang dilakukan setelah beberapa klik. Peristiwa awal bisa menjadi klik awal. Bahkan dalam jenis acara yang sama, seperti klik, ada baiknya untuk mempertimbangkan efek jangka panjang dan memaksimalkan total hadiah. Untuk mempertimbangkan efek jangka panjang, gunakan bptt nilai yang lebih besar. Menggunakan bptt nilai yang lebih besar membutuhkan kumpulan data yang lebih besar dan lebih banyak waktu untuk diproses.

Nilai default: 32

Rentang: [2, 32]

Jenis nilai: Integer

HPO dapat disetel: Ya

recency_mask

Menentukan apakah model harus mempertimbangkan tren popularitas terbaru dalam kumpulan data interaksi Item. Tren popularitas terbaru mungkin termasuk perubahan mendadak dalam pola yang mendasari peristiwa interaksi. Untuk melatih model yang memberi bobot lebih pada peristiwa baru-baru ini, atur recency_mask ketrue. Untuk melatih model yang sama-sama menimbang semua interaksi masa lalu, atur recency_mask kefalse. Untuk mendapatkan rekomendasi yang baik menggunakan bobot yang sama, Anda mungkin memerlukan kumpulan data pelatihan yang lebih besar.

Nilai default: True

Rentang: True atau False

Jenis nilai: Boolean

HPO dapat disetel: Ya

Hiperparameter featurisasi
min_user_history_length_percentile

Persentil minimum panjang riwayat pengguna untuk dimasukkan dalam pelatihan model. Panjang riwayat adalah jumlah total data tentang pengguna. Gunakan min_user_history_length_percentile untuk mengecualikan persentase pengguna dengan panjang riwayat pendek. Pengguna dengan riwayat singkat sering menunjukkan pola berdasarkan popularitas item, bukan kebutuhan atau keinginan pribadi pengguna. Menghapusnya dapat melatih model dengan lebih fokus pada pola yang mendasarinya dalam data Anda. Pilih nilai yang sesuai setelah Anda meninjau panjang riwayat pengguna, menggunakan histogram atau alat serupa. Kami merekomendasikan untuk menetapkan nilai yang mempertahankan mayoritas pengguna, tetapi menghapus kasus tepi.

Misalnya, menyetel min__user_history_length_percentile to 0.05 dan max_user_history_length_percentile to 0.95 menyertakan semua pengguna kecuali yang memiliki panjang riwayat di bagian bawah atau atas 5%.

Nilai default: 0.0

Rentang: [0.0, 1.0]

Jenis nilai: Float

HPO dapat disetel: Tidak

max_user_history_length_percentile

Persentil maksimum panjang riwayat pengguna untuk dimasukkan dalam pelatihan model. Panjang riwayat adalah jumlah total data tentang pengguna. Gunakan max_user_history_length_percentile untuk mengecualikan persentase pengguna dengan panjang sejarah panjang karena data untuk pengguna ini cenderung mengandung noise. Misalnya, robot mungkin memiliki daftar panjang interaksi otomatis. Menghapus pengguna ini membatasi kebisingan dalam pelatihan. Pilih nilai yang sesuai setelah Anda meninjau panjang riwayat pengguna menggunakan histogram atau alat serupa. Kami merekomendasikan untuk menyetel nilai yang mempertahankan mayoritas pengguna tetapi menghapus kasus tepi.

Misalnya, menyetel min__user_history_length_percentile to 0.05 dan max_user_history_length_percentile to 0.95 menyertakan semua pengguna kecuali yang memiliki panjang riwayat di bagian bawah atau atas 5%.

Nilai default: 0,99

Rentang: [0.0, 1.0]

Jenis nilai: Float

HPO dapat disetel: Tidak

Notebook sampel Peringkat yang Dipersonalisasi

Untuk contoh buku catatan Jupyter yang menunjukkan cara menggunakan resep Personalized-Ranking, lihat Personalisasi Contoh Peringkat.