Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Stellen Sie ein benutzerdefiniertes Modell für On-Demand-Inferenz bereit
Nachdem Sie erfolgreich ein benutzerdefiniertes Modell mit einer Modellanpassung (Feinabstimmung, Detaillierung oder weitere Vorschulung) erstellt haben, können Sie bei Bedarf Inferenz für das Modell einrichten.
Um On-Demand-Inferenz für ein benutzerdefiniertes Modell einzurichten, stellen Sie das Modell mit einer benutzerdefinierten Modellbereitstellung bereit. Nachdem Sie Ihr benutzerdefiniertes Modell bereitgestellt haben, verwenden Sie den Amazon-Ressourcennamen (ARN) der Bereitstellung als modelId
Parameter in Ihren InvokeModel
oder Converse
API-Vorgängen. Sie können das bereitgestellte Modell für On-Demand-Inferenzen mit Amazon Bedrock-Funktionen wie Playgrounds, Agents und Knowledge Bases verwenden.
Themen
Unterstützte Modelle
Sie können On-Demand-Inferenz für die folgenden Modelle einrichten:
-
Amazon Nova Leinwand
-
Amazon Nova Lite
-
Amazon Nova Micro
-
Amazon Nova Pro