Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
MetaLlama 3.2hiperparameter kustomisasi model
Model Meta Llama 3.2 1B, 3B, 11B, dan 90B mendukung hyperparameter berikut untuk kustomisasi model. Jumlah epoch yang Anda tentukan meningkatkan biaya penyesuaian model Anda dengan memproses lebih banyak token. Setiap epoch memproses seluruh kumpulan data pelatihan satu kali. Untuk informasi tentang harga, lihat harga Amazon Bedrock
Untuk informasi tentang fine tuning model Meta Llama, lihat Meta dokumentasi di https://ai.meta.com/llama/get-started/ #fine -tuning
Hyperparameter (konsol) | Hiperparameter (API) | Definisi | Minimum | Maksimum | Default |
---|---|---|---|---|---|
Zaman | EpochCount | Jumlah iterasi melalui seluruh dataset pelatihan | 1 | 10 | 5 |
Ukuran batch | BatchSize | Jumlah sampel yang diproses sebelum memperbarui parameter model | 1 | 1 | 1 |
Tingkat pembelajaran | LearningRate | Tingkat di mana parameter model diperbarui setelah setiap batch | 5.00E-6 | 0.1 | 1.00E-4 |