Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Stellen Sie ein benutzerdefiniertes Modell für On-Demand-Inferenz bereit
Nachdem Sie ein benutzerdefiniertes Modell mit einem Auftrag zur Modellanpassung erstellt oder ein SageMaker KI-gestütztes benutzerdefiniertes Amazon Nova Modell importiert haben, können Sie On-Demand-Inferenz für das Modell einrichten. Bei On-Demand-Inferenz zahlen Sie nur für das, was Sie tatsächlich nutzen, und Sie müssen keine bereitgestellten Rechenressourcen einrichten.
Um On-Demand-Inferenz für ein benutzerdefiniertes Modell einzurichten, stellen Sie es mit einer benutzerdefinierten Modellbereitstellung bereit. Nachdem Sie Ihr benutzerdefiniertes Modell bereitgestellt haben, verwenden Sie den Amazon-Ressourcennamen (ARN) der Bereitstellung als modelId
Parameter, wenn Sie Eingabeaufforderungen senden und Antworten mit Modellinferenz generieren.
Informationen zu den Preisen für On-Demand-Inferenzen finden Sie unter Amazon Bedrock-Preise
-
USA Ost (Nord-Virginia)
Themen
Unterstützte Basismodelle
Sie können On-Demand-Inferenz für die folgenden Basismodelle einrichten:
-
Amazon Nova Lite
-
Amazon Nova Micro
-
Amazon Nova Pro