Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Inferenz für ein benutzerdefiniertes Modell einrichten
Nachdem Sie ein benutzerdefiniertes Modell erstellt haben, können Sie die Inferenz mit einer der folgenden Optionen einrichten:
-
Provisioned Throughput erwerben — Erwerben Sie Provisioned Throughput für Ihr Modell, um dedizierte Rechenkapazität mit garantiertem Durchsatz für gleichbleibende Leistung und geringere Latenz einzurichten.
Weitere Informationen zum bereitgestellten Durchsatz finden Sie unter. Erhöhen Sie die Kapazität für den Modellaufruf mit Provisioned Throughput in Amazon Bedrock Weitere Informationen zur Verwendung von benutzerdefinierten Modellen mit bereitgestelltem Durchsatz finden Sie unter. Provisioned Throughput für ein benutzerdefiniertes Modell erwerben
-
Benutzerdefiniertes Modell für On-Demand-Inferenz bereitstellen (nur Amazon Nova Modelle) — Um On-Demand-Inferenz einzurichten, stellen Sie das Modell mit einer benutzerdefinierten Modellbereitstellung bereit. Nachdem Sie das Modell bereitgestellt haben, rufen Sie es mithilfe des ARN für die Bereitstellung des benutzerdefinierten Modells auf. Bei On-Demand-Inferenz zahlen Sie nur für das, was Sie tatsächlich nutzen, und Sie müssen keine bereitgestellten Rechenressourcen einrichten.
Weitere Informationen zur Bereitstellung benutzerdefinierter Modelle für On-Demand-Inferenz finden Sie unter. Stellen Sie ein benutzerdefiniertes Modell für On-Demand-Inferenz bereit