オンデマンド推論用のカスタムモデルをデプロイする - Amazon Bedrock

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

オンデマンド推論用のカスタムモデルをデプロイする

モデルカスタマイズジョブを使用してカスタムモデルを作成した後、または SageMaker AI でトレーニングされたカスタムAmazon Novaモデルをインポートした後、モデルのオンデマンド推論を設定できます。オンデマンド推論では、使用した分に対してのみ料金が発生し、プロビジョニングされたコンピューティングリソースを設定する必要はありません。

カスタムモデルのオンデマンド推論を設定するには、カスタムモデルのデプロイでデプロイします。カスタムモデルをデプロイしたら、プロンプトを送信してモデル推論でレスポンスを生成するときに、デプロイの Amazon リソースネーム (ARN) を modelIdパラメータとして使用します。

オンデマンド推論の料金については、「Amazon Bedrock の料金」を参照してください。オンデマンド推論用のカスタムモデルを次のリージョンにデプロイできます (Amazon Bedrock でサポートされているリージョンの詳細については、「Amazon Bedrock エンドポイントとクォータ」を参照してください)。

  • 米国東部 (バージニア北部)

サポートされているベースモデル

以下のベースモデルにオンデマンド推論を設定できます。

  • Amazon Nova Lite

  • Amazon Nova Micro

  • Amazon Nova Pro