Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Jalankan contoh API permintaan Amazon Bedrock dengan AWS Command Line Interface
Bagian ini memandu Anda untuk mencoba beberapa operasi umum di Amazon Bedrock menggunakan AWS CLI untuk menguji apakah izin dan otentikasi Anda diatur dengan benar. Sebelum Anda menjalankan contoh berikut, Anda harus memeriksa apakah Anda telah memenuhi prasyarat berikut:
Prasyarat
-
Anda memiliki Akun AWS dan pengguna atau peran dengan pengaturan otentikasi dan izin yang diperlukan untuk Amazon Bedrock. Jika tidak, ikuti langkah-langkahnya diMemulai dengan API.
-
Anda telah meminta akses ke Amazon Titan Text G1 - Express model. Jika tidak, ikuti langkah-langkahnya diMinta akses ke model fondasi Amazon Bedrock.
-
Anda telah menginstal dan mengatur otentikasi untuk file. AWS CLI Untuk menginstalCLI, ikuti langkah-langkah di Instal atau perbarui ke versi terbaru AWS CLI. Verifikasi bahwa Anda telah menyiapkan kredensional Anda untuk digunakan CLI dengan mengikuti langkah-langkah di. Dapatkan kredensil untuk memberikan akses terprogram
Uji apakah izin Anda diatur dengan benar untuk Amazon Bedrock, menggunakan pengguna atau peran yang Anda atur dengan izin yang tepat.
Topik
Buat daftar model fondasi yang ditawarkan Amazon Bedrock
Contoh berikut menjalankan ListFoundationModelsoperasi menggunakan endpoint Amazon Bedrock. ListFoundationModels
daftar model foundation (FMs) yang tersedia di Amazon Bedrock di wilayah Anda. Di terminal, jalankan perintah berikut:
aws bedrock list-foundation-models --region us-east-1
Jika perintah berhasil, respons mengembalikan daftar model foundation yang tersedia di Amazon Bedrock.
Kirim prompt teks ke model dan hasilkan respons teks dengan InvokeModel
Contoh berikut menjalankan InvokeModeloperasi menggunakan endpoint runtime Amazon Bedrock. InvokeModel
memungkinkan Anda mengirimkan prompt untuk menghasilkan respons model. Di terminal, jalankan perintah berikut:
aws bedrock-runtime invoke-model \ --model-id amazon.titan-text-express-v1 \ --body '{"inputText": "Describe the purpose of a \"hello world\" program in one line.", "textGenerationConfig" : {"maxTokenCount": 512, "temperature": 0.5, "topP": 0.9}}' \ --cli-binary-format raw-in-base64-out \ invoke-model-output-text.txt
Jika perintah berhasil, respons yang dihasilkan oleh model ditulis ke invoke-model-output-text.txt
file. Respons teks dikembalikan di outputText
lapangan, di samping informasi yang menyertainya.
Kirim prompt teks ke model dan hasilkan respons teks dengan Converse
Contoh berikut menjalankan operasi Converse menggunakan endpoint runtime Amazon Bedrock. Converse
memungkinkan Anda mengirimkan prompt untuk menghasilkan respons model. Sebaiknya gunakan Converse
operasi lebih InvokeModel
saat didukung, karena ini menyatukan permintaan inferensi di seluruh model Amazon Bedrock dan menyederhanakan pengelolaan percakapan multi-putaran. Di terminal, jalankan perintah berikut:
aws bedrock-runtime converse \ --model-id amazon.titan-text-express-v1 \ --messages '[{"role": "user", "content": [{"text": "Describe the purpose of a \"hello world\" program in one line."}]}]' \ --inference-config '{"maxTokens": 512, "temperature": 0.5, "topP": 0.9}'
Jika perintah berhasil, respons yang dihasilkan oleh model dikembalikan di text
lapangan, di samping informasi yang menyertainya.