Endpunkte und Kontingente von Amazon Bedrock - AWS Allgemeine Referenz

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Endpunkte und Kontingente von Amazon Bedrock

Um programmgesteuert eine Verbindung zu einem AWS Service herzustellen, verwenden Sie einen Endpunkt. AWS Dienste bieten die folgenden Endpunkttypen in einigen oder allen AWS Regionen, die der Dienst unterstützt: Endpunkte, IPv4 Dual-Stack-Endpunkte und FIPS-Endpunkte. Einige Dienste bieten globale Endpunkte. Weitere Informationen finden Sie unter AWS Service-Endpunkte.

Servicekontingenten, auch Limits genannt, sind die maximale Anzahl von Serviceressourcen oder Vorgängen für Ihr AWS Konto. Weitere Informationen finden Sie unter AWS Servicekontingenten.

Im Folgenden werden die Service-Endpunkte und -kontingente für diesen Service beschrieben.

Amazon Bedrock-Serviceendpunkte

Amazon Bedrock-Steuerflugzeug APIs

Die folgende Tabelle enthält eine Liste von regionsspezifischen Endpunkten, die Amazon Bedrock für die Verwaltung, Schulung und Bereitstellung von Modellen unterstützt. Verwenden Sie diese Endpunkte für Amazon Bedrock API-Operationen.

Name der Region Region Endpunkt Protocol (Protokoll)
USA Ost (Ohio) us-east-2

bedrock.us-east-2.amazonaws.com

bedrock-fips.us-east-2.amazonaws.com

HTTPS

HTTPS

USA Ost (Nord-Virginia) us-east-1

bedrock.us-east-1.amazonaws.com

bedrock-fips.us-east-1.amazonaws.com

HTTPS

HTTPS

USA West (Nordkalifornien) us-west-1

bedrock.us-west-1.amazonaws.com

bedrock-fips.us-west-1.amazonaws.com

HTTPS

HTTPS

USA West (Oregon) us-west-2

bedrock.us-west-2.amazonaws.com

bedrock-fips.us-west-2.amazonaws.com

HTTPS

HTTPS

Asien-Pazifik (Hyderabad) ap-south-2 bedrock.ap-south-2.amazonaws.com HTTPS
Asien-Pazifik (Melbourne) ap-southeast-4 bedrock.ap-southeast-4.amazonaws.com HTTPS
Asien-Pazifik (Mumbai) ap-south-1 bedrock.ap-south-1.amazonaws.com HTTPS
Asien-Pazifik (Osaka) ap-northeast-3 bedrock.ap-northeast-3.amazonaws.com HTTPS
Asien-Pazifik (Seoul) ap-northeast-2 bedrock.ap-northeast-2.amazonaws.com HTTPS
Asien-Pazifik (Singapur) ap-southeast-1 bedrock.ap-southeast-1.amazonaws.com HTTPS
Asien-Pazifik (Sydney) ap-southeast-2 bedrock.ap-southeast-2.amazonaws.com HTTPS
Asien-Pazifik (Tokio) ap-northeast-1 bedrock.ap-northeast-1.amazonaws.com HTTPS
Kanada (Zentral) ca-central-1

bedrock.ca-central-1.amazonaws.com

bedrock-fips.ca-central-1.amazonaws.com

HTTPS

HTTPS

Europa (Frankfurt) eu-central-1 bedrock.eu-central-1.amazonaws.com HTTPS
Europa (Irland) eu-west-1 bedrock.eu-west-1.amazonaws.com HTTPS
Europa (London) eu-west-2 bedrock.eu-west-2.amazonaws.com HTTPS
Europa (Mailand) eu-south-1 bedrock.eu-south-1.amazonaws.com HTTPS
Europa (Paris) eu-west-3 bedrock.eu-west-3.amazonaws.com HTTPS
Europa (Spanien) eu-south-2 bedrock.eu-south-2.amazonaws.com HTTPS
Europa (Stockholm) eu-north-1 bedrock.eu-north-1.amazonaws.com HTTPS
Europa (Zürich) eu-central-2 bedrock.eu-central-2.amazonaws.com HTTPS
Südamerika (São Paulo) sa-east-1 bedrock.sa-east-1.amazonaws.com HTTPS
AWS GovCloud (US-Ost) us-gov-east-1

bedrock.us-gov-east-1.amazonaws.com

bedrock-fips.us-gov-east-1.amazonaws.com

HTTPS

HTTPS

AWS GovCloud (US-West) us-gov-west-1

bedrock.us-gov-west-1.amazonaws.com

bedrock-fips.us-gov-west-1.amazonaws.com

HTTPS

HTTPS

Laufzeit von Amazon Bedrock APIs

Die folgende Tabelle enthält eine Liste von regionsspezifischen Endpunkten, die Amazon Bedrock unterstützt, um Inferenzanfragen für in Amazon Bedrock gehostete Modelle zu stellen. Verwenden Sie diese Endpunkte für Amazon Bedrock Runtime API-Operationen.

Name der Region Region Endpunkt Protocol (Protokoll)
USA Ost (Ohio) us-east-2

bedrock-runtime.us-east-2.amazonaws.com

bedrock-runtime-fips.us-east-2.amazonaws.com

HTTPS

HTTPS

USA Ost (Nord-Virginia) us-east-1

bedrock-runtime.us-east-1.amazonaws.com

bedrock-runtime-fips.us-east-1.amazonaws.com

HTTPS

HTTPS

USA West (Oregon) us-west-2

bedrock-runtime.us-west-2.amazonaws.com

bedrock-runtime-fips.us-west-2.amazonaws.com

HTTPS

HTTPS

Asien-Pazifik (Hyderabad) ap-south-2 bedrock-runtime.ap-south-2.amazonaws.com HTTPS
Asien-Pazifik (Mumbai) ap-south-1 bedrock-runtime.ap-south-1.amazonaws.com HTTPS
Asien-Pazifik (Osaka) ap-northeast-3 bedrock-runtime.ap-northeast-3.amazonaws.com HTTPS
Asien-Pazifik (Seoul) ap-northeast-2 bedrock-runtime.ap-northeast-2.amazonaws.com HTTPS
Asien-Pazifik (Singapur) ap-southeast-1 bedrock-runtime.ap-southeast-1.amazonaws.com HTTPS
Asien-Pazifik (Sydney) ap-southeast-2 bedrock-runtime.ap-southeast-2.amazonaws.com HTTPS
Asien-Pazifik (Tokio) ap-northeast-1 bedrock-runtime.ap-northeast-1.amazonaws.com HTTPS
Kanada (Zentral) ca-central-1

bedrock-runtime.ca-central-1.amazonaws.com

bedrock-runtime-fips.ca-central-1.amazonaws.com

HTTPS

HTTPS

Europa (Frankfurt) eu-central-1 bedrock-runtime.eu-central-1.amazonaws.com HTTPS
Europa (Irland) eu-west-1 bedrock-runtime.eu-west-1.amazonaws.com HTTPS
Europa (London) eu-west-2 bedrock-runtime.eu-west-2.amazonaws.com HTTPS
Europa (Mailand) eu-south-1 bedrock-runtime.eu-south-1.amazonaws.com HTTPS
Europa (Paris) eu-west-3 bedrock-runtime.eu-west-3.amazonaws.com HTTPS
Europa (Spanien) eu-south-2 bedrock-runtime.eu-south-2.amazonaws.com HTTPS
Europa (Stockholm) eu-north-1 bedrock-runtime.eu-north-1.amazonaws.com HTTPS
Europa (Zürich) eu-central-2 bedrock-runtime.eu-central-2.amazonaws.com HTTPS
Südamerika (São Paulo) sa-east-1 bedrock-runtime.sa-east-1.amazonaws.com HTTPS
AWS GovCloud (US-Ost) us-gov-east-1

bedrock-runtime.us-gov-east-1.amazonaws.com

bedrock-runtime-fips.us-gov-east-1.amazonaws.com

HTTPS

HTTPS

AWS GovCloud (US-West) us-gov-west-1

bedrock-runtime.us-gov-west-1.amazonaws.com

bedrock-runtime-fips.us-gov-west-1.amazonaws.com

HTTPS

HTTPS

Agenten für Amazon Bedrock Build-Time APIs

Die folgende Tabelle enthält eine Liste von regionsspezifischen Endpunkten, die Agents for Amazon Bedrock für die Erstellung und Verwaltung von Agenten und Wissensdatenbanken unterstützt. Verwenden Sie diese Endpunkte für Agents for Amazon Bedrock API-Operationen.

Name der Region Region Endpunkt Protokoll
USA Ost (Nord-Virginia) us-east-1 bedrock-agent.us-east-1.amazonaws.com HTTPS
bedrock-agent-fips.us-east-1.amazonaws.com HTTPS
USA West (Oregon) us-west-2 bedrock-agent.us-west-2.amazonaws.com HTTPS
bedrock-agent-fips.us-west-2.amazonaws.com HTTPS
Asien-Pazifik (Singapur) ap-southeast-1 bedrock-agent.ap-southeast-1.amazonaws.com HTTPS
Asien-Pazifik (Sydney) ap-southeast-2 bedrock-agent.ap-southeast-2.amazonaws.com HTTPS
Asien-Pazifik (Tokio) ap-northeast-1 bedrock-agent.ap-northeast-1.amazonaws.com HTTPS
Kanada (Zentral) ca-central-1 bedrock-agent.ca-central-1.amazonaws.com HTTPS
Europa (Frankfurt) eu-central-1 bedrock-agent.eu-central-1.amazonaws.com HTTPS
Europa (Irland) eu-west-1 bedrock-agent.eu-west-1.amazonaws.com HTTPS
Europa (London) eu-west-2 bedrock-agent.eu-west-2.amazonaws.com HTTPS
Europa (Paris) eu-west-3 bedrock-agent.eu-west-3.amazonaws.com HTTPS
Asien-Pazifik (Mumbai) ap-south-1 bedrock-agent.ap-south-1.amazonaws.com HTTPS
Südamerika (São Paulo) sa-east-1 bedrock-agent.sa-east-1.amazonaws.com HTTPS

Agenten für Amazon Bedrock Runtime APIs

Die folgende Tabelle enthält eine Liste von regionsspezifischen Endpunkten, die Agents for Amazon Bedrock zum Aufrufen von Agenten und Abfragen von Wissensdatenbanken unterstützt. Verwenden Sie diese Endpunkte für Agents for Amazon Bedrock Runtime API-Operationen.

Name der Region Region Endpunkt Protokoll
USA Ost (Nord-Virginia) us-east-1 bedrock-agent-runtime.us-east-1.amazonaws.com HTTPS
bedrock-agent-runtime-fips.us-east-1.amazonaws.com HTTPS
USA West (Oregon) us-west-2 bedrock-agent-runtime.us-west-2.amazonaws.com HTTPS
bedrock-agent-runtime-fips.us-west-2.amazonaws.com HTTPS
Asien-Pazifik (Singapur) ap-southeast-1 bedrock-agent-runtime.ap-southeast-1.amazonaws.com HTTPS
Asien-Pazifik (Sydney) ap-southeast-2 bedrock-agent-runtime.ap-southeast-2.amazonaws.com HTTPS
Asien-Pazifik (Tokio) ap-northeast-1 bedrock-agent-runtime.ap-northeast-1.amazonaws.com HTTPS
Kanada (Zentral) ca-central-1 bedrock-agent-runtime.ca-central-1.amazonaws.com HTTPS
Europa (Frankfurt) eu-central-1 bedrock-agent-runtime.eu-central-1.amazonaws.com HTTPS
Europa (Paris) eu-west-3 bedrock-agent-runtime.eu-west-3.amazonaws.com HTTPS
Europa (Irland) eu-west-1 bedrock-agent-runtime.eu-west-1.amazonaws.com HTTPS
Europa (London) eu-west-2 bedrock-agent-runtime.eu-west-2.amazonaws.com HTTPS
Asien-Pazifik (Mumbai) ap-south-1 bedrock-agent-runtime.ap-south-1.amazonaws.com HTTPS
Südamerika (São Paulo) sa-east-1 bedrock-agent-runtime.sa-east-1.amazonaws.com HTTPS

Amazon Bedrock Datenautomatisierung APIs

Die folgende Tabelle enthält eine Liste der regionsspezifischen Endpunkte, die Data Automation for Amazon Bedrock unterstützt. Endgeräte, die das Wort verwenden, runtime rufen Blueprints und Projekte auf, um Informationen aus Dateien zu extrahieren. Verwenden Sie diese Endpunkte für Amazon Bedrock Data Automation Runtime API-Operationen. Endpunkte ohne diese runtime werden verwendet, um Blueprints und Projekte zu erstellen, um Anleitungen zur Extraktion bereitzustellen. Verwenden Sie diese Endpunkte für Amazon Bedrock Data Automation API Buildtime-Operationen

Name der Region Region Endpunkt Protocol (Protokoll)
USA Ost (Nord-Virginia) us-east-1

bedrock-data-automation.us-east-1.amazonaws.com

bedrock-data-automation-runtime.us-east-1.api.aws

bedrock-data-automation-runtime.us-east-1.amazonaws.com

bedrock-data-automation.us-east-1.api.aws

bedrock-data-automation-fips.us-east-1.amazonaws.com

bedrock-data-automation-runtime-fips.us-east-1.api.aws

bedrock-data-automation-runtime-fips.us-east-1.amazonaws.com

bedrock-data-automation-fips.us-east-1.api.aws

HTTPS

HTTPS

HTTPS

HTTPS

HTTPS

HTTPS

HTTPS

HTTPS

USA West (Oregon) us-west-2

bedrock-data-automation.us-west-2.amazonaws.com

bedrock-data-automation-runtime.us-west-2.api.aws

bedrock-data-automation-runtime.us-west-2.amazonaws.com

bedrock-data-automation.us-west-2.api.aws

bedrock-data-automation-fips.us-west-2.amazonaws.com

bedrock-data-automation-runtime-fips.us-west-2.api.aws

bedrock-data-automation-runtime-fips.us-west-2.amazonaws.com

bedrock-data-automation-fips.us-west-2.api.aws

HTTPS

HTTPS

HTTPS

HTTPS

HTTPS

HTTPS

HTTPS

HTTPS

Asien-Pazifik (Mumbai) ap-south-1

bedrock-data-automation.ap-south-1.amazonaws.com

bedrock-data-automation-runtime.ap-south-1.amazonaws.com

HTTPS

HTTPS

Asien-Pazifik (Sydney) ap-southeast-2

bedrock-data-automation.ap-southeast-2.amazonaws.com

bedrock-data-automation-runtime.ap-southeast-2.amazonaws.com

HTTPS

HTTPS

Europa (Frankfurt) eu-central-1

bedrock-data-automation.eu-central-1.amazonaws.com

bedrock-data-automation-runtime.eu-central-1.amazonaws.com

HTTPS

HTTPS

Europa (Irland) eu-west-1

bedrock-data-automation.eu-west-1.amazonaws.com

bedrock-data-automation-runtime.eu-west-1.amazonaws.com

HTTPS

HTTPS

Europa (London) eu-west-2

bedrock-data-automation.eu-west-2.amazonaws.com

bedrock-data-automation-runtime.eu-west-2.amazonaws.com

HTTPS

HTTPS

Amazon Bedrock-Servicekontingente

Tipp

Da Amazon Bedrock über eine große Anzahl von Kontingenten verfügt, empfehlen wir, dass Sie sich die Service-Kontingente in der Konsole anzeigen lassen, anstatt die Tabelle unten zu verwenden. Öffnen Sie Amazon Bedrock-Kontingente. Verwenden Sie das Suchfeld, um bestimmte Kontingente zu finden. Verwenden Sie das Zahnradsymbol, um zu steuern, wie viele Kontingente auf einer Seite angezeigt werden.

Name Standard Anpassbar Beschreibung
(Automatisiertes Denken) Anmerkungen in der Richtlinie Jede unterstützte Region: 10 Nein Die maximale Anzahl von Anmerkungen in einer Richtlinie für automatisiertes Denken.
(Automated Reasoning) -Anfragen pro Sekunde CancelAutomatedReasoningPolicyBuildWorkflow Jede unterstützte Region: 5 Yes (Ja) Die maximale Anzahl von CancelAutomatedReasoningPolicyBuildWorkflow API-Anfragen pro Sekunde.
(Automatisiertes Denken) Gleichzeitige Builds pro Richtlinie Jede unterstützte Region: 2 Nein Die maximale Anzahl gleichzeitiger Builds pro Automated Reasoning-Richtlinie.
(Automated Reasoning) Gleichzeitige Policy-Builds pro Konto Jede unterstützte Region: 5 Nein Die maximale Anzahl gleichzeitiger Policy-Builds für automatisiertes Denken in einem Konto.
(Automated Reasoning) -Anfragen pro Sekunde CreateAutomatedReasoningPolicy Jede unterstützte Region: 5 Yes (Ja) Die maximale Anzahl von CreateAutomatedReasoningPolicy API-Anfragen pro Sekunde.
(Automated Reasoning) CreateAutomatedReasoningPolicyTestCase -Anfragen pro Sekunde Jede unterstützte Region: 5 Yes (Ja) Die maximale Anzahl von CreateAutomatedReasoningPolicyTestCase API-Anfragen pro Sekunde.
(Automated Reasoning) CreateAutomatedReasoningPolicyVersion -Anfragen pro Sekunde Jede unterstützte Region: 5 Yes (Ja) Die maximale Anzahl von CreateAutomatedReasoningPolicyVersion API-Anfragen pro Sekunde.
(Automated Reasoning) DeleteAutomatedReasoningPolicy -Anfragen pro Sekunde Jede unterstützte Region: 5 Yes (Ja) Die maximale Anzahl von DeleteAutomatedReasoningPolicy API-Anfragen pro Sekunde.
(Automated Reasoning) DeleteAutomatedReasoningPolicyBuildWorkflow -Anfragen pro Sekunde Jede unterstützte Region: 5 Yes (Ja) Die maximale Anzahl von DeleteAutomatedReasoningPolicyBuildWorkflow API-Anfragen pro Sekunde.
(Automated Reasoning) DeleteAutomatedReasoningPolicyTestCase -Anfragen pro Sekunde Jede unterstützte Region: 5 Yes (Ja) Die maximale Anzahl von DeleteAutomatedReasoningPolicyTestCase API-Anfragen pro Sekunde.
(Automated Reasoning) ExportAutomatedReasoningPolicyVersion -Anfragen pro Sekunde Jede unterstützte Region: 5 Yes (Ja) Die maximale Anzahl von ExportAutomatedReasoningPolicyVersion API-Anfragen pro Sekunde.
(Automated Reasoning) GetAutomatedReasoningPolicy -Anfragen pro Sekunde Jede unterstützte Region: 10 Yes (Ja) Die maximale Anzahl von GetAutomatedReasoningPolicy API-Anfragen pro Sekunde.
(Automated Reasoning) GetAutomatedReasoningPolicyAnnotations -Anfragen pro Sekunde Jede unterstützte Region: 10 Yes (Ja) Die maximale Anzahl von GetAutomatedReasoningPolicyAnnotations API-Anfragen pro Sekunde.
(Automated Reasoning) GetAutomatedReasoningPolicyBuildWorkflow -Anfragen pro Sekunde Jede unterstützte Region: 10 Yes (Ja) Die maximale Anzahl von GetAutomatedReasoningPolicyBuildWorkflow API-Anfragen pro Sekunde.
(Automated Reasoning) GetAutomatedReasoningPolicyBuildWorkflowResultAssets -Anfragen pro Sekunde Jede unterstützte Region: 10 Yes (Ja) Die maximale Anzahl von GetAutomatedReasoningPolicyBuildWorkflowResultAssets API-Anfragen pro Sekunde.
(Automated Reasoning) GetAutomatedReasoningPolicyNextScenario -Anfragen pro Sekunde Jede unterstützte Region: 10 Yes (Ja) Die maximale Anzahl von GetAutomatedReasoningPolicyNextScenario API-Anfragen pro Sekunde.
(Automated Reasoning) GetAutomatedReasoningPolicyTestCase -Anfragen pro Sekunde Jede unterstützte Region: 10 Yes (Ja) Die maximale Anzahl von GetAutomatedReasoningPolicyTestCase API-Anfragen pro Sekunde.
(Automated Reasoning) GetAutomatedReasoningPolicyTestResult -Anfragen pro Sekunde Jede unterstützte Region: 10 Yes (Ja) Die maximale Anzahl von GetAutomatedReasoningPolicyTestResult API-Anfragen pro Sekunde.
(Automated Reasoning) ListAutomatedReasoningPolicies -Anfragen pro Sekunde Jede unterstützte Region: 5 Yes (Ja) Die maximale Anzahl von ListAutomatedReasoningPolicies API-Anfragen pro Sekunde.
(Automated Reasoning) ListAutomatedReasoningPolicyBuildWorkflows -Anfragen pro Sekunde Jede unterstützte Region: 5 Yes (Ja) Die maximale Anzahl von ListAutomatedReasoningPolicyBuildWorkflows API-Anfragen pro Sekunde.
(Automated Reasoning) ListAutomatedReasoningPolicyTestCases -Anfragen pro Sekunde Jede unterstützte Region: 5 Yes (Ja) Die maximale Anzahl von ListAutomatedReasoningPolicyTestCases API-Anfragen pro Sekunde.
(Automated Reasoning) ListAutomatedReasoningPolicyTestResults -Anfragen pro Sekunde Jede unterstützte Region: 5 Yes (Ja) Die maximale Anzahl von ListAutomatedReasoningPolicyTestResults API-Anfragen pro Sekunde.
(Automatisiertes Denken) Richtlinien pro Konto Jede unterstützte Region: 100 Nein Die maximale Anzahl von Richtlinien für automatisiertes Denken in einem Konto.
(Automatisiertes Denken) Regeln in der Richtlinie Jede unterstützte Region: 500 Nein Die maximale Anzahl von Regeln in einer Richtlinie für automatisiertes Denken.
(Automatisiertes Denken) Zeichen im Quelldokument Jede unterstützte Region: 122.880 Nein Die maximale Anzahl von Zeichen in einem Quelldokument für die Erstellung einer Richtlinie für automatisiertes Denken.
(Automatisiertes Denken) Größe des Quelldokuments (MB) Jede unterstützte Region: 5 Nein Die maximale Größe des Quelldokuments (MB) für die Erstellung einer Richtlinie für automatisiertes Denken.
(Automated Reasoning) StartAutomatedReasoningPolicyBuildWorkflow -Anfragen pro Sekunde Jede unterstützte Region: 1 Ja Die maximale Anzahl von StartAutomatedReasoningPolicyBuildWorkflow API-Anfragen pro Sekunde.
(Automated Reasoning) StartAutomatedReasoningPolicyTestWorkflow -Anfragen pro Sekunde Jede unterstützte Region: 1 Ja Die maximale Anzahl von StartAutomatedReasoningPolicyTestWorkflow API-Anfragen pro Sekunde.
(Automatisiertes Denken) Tests pro Richtlinie Jede unterstützte Region: 100 Nein Die maximale Anzahl von Tests pro Richtlinie für automatisiertes Denken.
(Automatisiertes Denken) Typen pro Richtlinie Jede unterstützte Region: 50 Nein Die maximale Anzahl von Typen in einer Richtlinie für automatisiertes Denken.
(Automated Reasoning) UpdateAutomatedReasoningPolicy -Anfragen pro Sekunde Jede unterstützte Region: 5 Yes (Ja) Die maximale Anzahl von UpdateAutomatedReasoningPolicy API-Anfragen pro Sekunde.
(Automated Reasoning) UpdateAutomatedReasoningPolicyAnnotations -Anfragen pro Sekunde Jede unterstützte Region: 5 Yes (Ja) Die maximale Anzahl von UpdateAutomatedReasoningPolicyAnnotations API-Anfragen pro Sekunde.
(Automated Reasoning) UpdateAutomatedReasoningPolicyTestCase -Anfragen pro Sekunde Jede unterstützte Region: 5 Yes (Ja) Die maximale Anzahl von UpdateAutomatedReasoningPolicyTestCase API-Anfragen pro Sekunde.
(Automatisiertes Denken) Werte pro Richtlinientyp Jede unterstützte Region: 50 Nein Die maximale Anzahl von Werten pro Typ in einer Richtlinie für automatisiertes Denken.
(Automatisiertes Denken) Variablen in der Richtlinie Jede unterstützte Region: 200 Nein Die maximale Anzahl von Variablen in einer Richtlinie für automatisiertes Denken.
(Automated Reasoning) Versionen pro Richtlinie Jede unterstützte Region: 1 000 Nein Die maximale Anzahl von Versionen pro Automated Reasoning-Richtlinie.
(Datenautomatisierung) (Konsole) Maximale Größe der Dokumentdatei (MB) Jede unterstützte Region: 200 Nein Die maximale Dateigröße für die Konsole
(Datenautomatisierung) (Konsole) Maximale Anzahl von Seiten pro Dokumentdatei Jede unterstützte Region: 20 Nein Die maximale Anzahl von Seiten pro Dokument in der Konsole
(Datenautomatisierung) CreateBlueprint — Maximale Anzahl von Blueprints pro Konto Jede unterstützte Region: 350 Ja Die maximale Anzahl von Blueprints pro Konto
(Datenautomatisierung) CreateBlueprintVersion — Maximale Anzahl von Blueprint-Versionen pro Blueprint Jede unterstützte Region: 10 Yes (Ja) Die maximale Anzahl von Versionen pro Blueprint
(Datenautomatisierung) Länge der Beschreibung für Felder (Zeichen) Jede unterstützte Region: 300 Nein Die maximale Länge der Beschreibung für Felder in Zeichen
(Datenautomatisierung) InvokeDataAutomationAsync — Audio — Maximale Anzahl gleichzeitiger Jobs

us-east-1: 20

us-west-2: 20

Jede der anderen unterstützten Regionen: 2

Ja Die maximale Anzahl offener Invoke Data Automation Async-Jobs für Audios
(Datenautomatisierung) InvokeDataAutomationAsync — Dokument — Maximale Anzahl gleichzeitiger Jobs

us-east-1:25

US-West-2:25

Jede der anderen unterstützten Regionen: 5

Ja Die maximale Anzahl offener Invoke Data Automation Async-Jobs für Dokumente
(Data Automation) InvokeDataAutomationAsync — Bild — Maximale Anzahl gleichzeitiger Jobs

us-east-1: 20

us-west-2: 20

Jede der anderen unterstützten Regionen: 5

Ja Die maximale Anzahl offener Invoke Data Automation Async-Jobs für Bilder
(Datenautomatisierung) InvokeDataAutomationAsync — Maximale Anzahl offener Jobs Jede unterstützte Region: 1 800 Nein Die maximale Anzahl offener Invoke Data Automation Async-Jobs für Bilder
(Datenautomatisierung) InvokeDataAutomationAsync — Video — Maximale Anzahl gleichzeitiger Jobs

us-east-1: 20

us-west-2: 20

Jede der anderen unterstützten Regionen: 3

Ja Die maximale Anzahl offener Invoke Data Automation Async-Jobs für Videos
(Datenautomatisierung) Maximale Audio-Abtastrate (Hz) Jede unterstützte Region: 48.000 Nein Die maximale Audio-Samplerate
(Datenautomatisierung) Maximale Anzahl von Blueprints pro Projekt (Audios) Jede unterstützte Region: 1 Nein Die maximale Anzahl von Blueprints pro Projekt für Audios
(Datenautomatisierung) Maximale Anzahl von Blueprints pro Projekt (Dokumente) Jede unterstützte Region: 40 Nein Die maximale Anzahl von Blueprints pro Projekt für Dokumente
(Datenautomatisierung) Maximale Anzahl von Blueprints pro Projekt (Bilder) Jede unterstützte Region: 1 Nein Die maximale Anzahl von Blueprints pro Projekt für Bilder
(Datenautomatisierung) Maximale Anzahl von Blueprints pro Projekt (Videos) Jede unterstützte Region: 1 Nein Die maximale Anzahl von Blueprints pro Projekt für Videos
(Datenautomatisierung) Maximale JSON-Blueprint-Größe (Zeichen) Jede unterstützte Region: 100 000 Nein Die maximale Größe von JSON in Zeichen
(Datenautomatisierung) Maximale Ebenen der Feldhierarchie Jede unterstützte Region: 1 Nein Die maximale Anzahl der Ebenen der Feldhierarchie
(Datenautomatisierung) Maximale Anzahl von Seiten pro Dokument Jede unterstützte Region: 3 000 Nein Die maximale Anzahl von Seiten pro Dokument
(Datenautomatisierung) Maximale Auflösung Jede unterstützte Region: 8 000 Nein Die maximale Auflösung für Bilder
(Datenautomatisierung) Maximale Größe der Audiodatei (MB) Jede unterstützte Region: 2 048 Nein Die maximale Dateigröße für Audio
(Datenautomatisierung) Maximale Audiolänge (Minuten) Jede unterstützte Region: 240 Nein Die maximale Länge für Audio in Minuten
(Datenautomatisierung) Maximale Größe der Dokumentdatei (MB) Jede unterstützte Region: 500 Nein Die maximale Dateigröße
(Datenautomatisierung) Maximale Bilddateigröße (MB) Jede unterstützte Region: 5 Nein Die maximale Dateigröße für Bilder
(Datenautomatisierung) Maximale Anzahl von Blueprints pro Start-Inferenzanforderung (Audios) Jede unterstützte Region: 1 Nein Die maximale Anzahl von Inline-Blueprints in der Start-Inferenzanforderung
(Datenautomatisierung) Maximale Anzahl von Blueprints pro Start-Inferenzanforderung (Dokumente) Jede unterstützte Region: 10 Nein Die maximale Anzahl von Inline-Blueprints in der Start-Inferenzanforderung
(Datenautomatisierung) Maximale Anzahl von Blueprints pro Start-Inferenzanforderung (Bilder) Jede unterstützte Region: 1 Nein Die maximale Anzahl von Inline-Blueprints in der Start-Inferenzanforderung
(Datenautomatisierung) Maximale Anzahl von Blueprints pro Start-Inferenzanforderung (Videos) Jede unterstützte Region: 1 Nein Die maximale Anzahl von Inline-Blueprints in der Start-Inferenzanforderung
(Datenautomatisierung) Maximale Anzahl von Listenfeldern pro Blueprint Jede unterstützte Region: 15 Nein Die maximale Anzahl von Listenfeldern pro Blueprint
(Datenautomatisierung) Maximale Videodateigröße (MB) Jede unterstützte Region: 10 240 Nein Die maximale Dateigröße für Videos
(Datenautomatisierung) Maximale Videolänge (Minuten) Jede unterstützte Region: 240 Nein Die maximale Länge für Videos in Minuten
(Datenautomatisierung) Minimale Audio-Abtastrate (Hz) Jede unterstützte Region: 8 000 Nein Die minimale Audio-Samplerate
(Datenautomatisierung) Minimale Audiolänge (Millisekunden) Jede unterstützte Region: 500 Nein Die Mindestlänge für Audio in Millisekunden
(Evaluierung) Anzahl der gleichzeitigen automatischen Modellevaluierungsjobs Jede unterstützte Region: 20 Nein Die maximale Anzahl von Aufträgen zur automatischen Modellevaluierung, die Sie in diesem Konto in der aktuellen Region gleichzeitig angeben können.
(Bewertung) Anzahl gleichzeitiger Modellevaluierungsjobs, bei denen menschliche Arbeitskräfte eingesetzt werden Jede unterstützte Region: 10 Nein Die maximale Anzahl von Modellevaluierungsjobs, bei denen menschliche Arbeitskräfte eingesetzt werden, die Sie in diesem Konto in der aktuellen Region gleichzeitig angeben können.
(Evaluierung) Anzahl der benutzerdefinierten Metriken Jede unterstützte Region: 10 Nein Die maximale Anzahl von benutzerdefinierten Metriken, die Sie in einem Modellevaluierungsjob angeben können, bei dem menschliche Mitarbeiter eingesetzt werden.
(Evaluierung) Anzahl von Datensätzen mit benutzerdefinierten Eingabeaufforderungen bei einer Evaluierung eines Modells am Menschen Jede unterstützte Region: 1 Nein Die maximale Anzahl von Datensätzen mit benutzerdefinierten Eingabeaufforderungen, die Sie in einem Auftrag zur Evaluierung eines menschlichen Modells in diesem Konto in der aktuellen Region angeben können.
(Evaluierung) Anzahl der Datensätze pro Auftrag Jede unterstützte Region: 5 Nein Die maximale Anzahl von Datensätzen, die Sie in einem automatisierten Modellevaluierungsjob angeben können. Dies umfasst sowohl benutzerdefinierte als auch integrierte Prompt-Datensätze.
(Evaluierung) Anzahl der Bewertungsaufträge Jede unterstützte Region: 5 000 Nein Die maximale Anzahl von Modellevaluierungsjobs, die Sie in diesem Konto in der aktuellen Region erstellen können.
(Bewertung) Anzahl der Metriken pro Datensatz Jede unterstützte Region: 3 Nein Die maximale Anzahl von Metriken, die Sie pro Datensatz in einem automatisierten Modellevaluierungsjob angeben können. Dies umfasst sowohl benutzerdefinierte als auch integrierte Metriken.
(Bewertung) Anzahl der Modelle in einem Modellevaluierungsjob, bei dem menschliche Mitarbeiter eingesetzt werden Jede unterstützte Region: 2 Nein Die maximale Anzahl von Modellen, die Sie in einem Modellevaluierungsjob angeben können, bei dem menschliche Arbeitskräfte verwendet werden.
(Evaluierung) Anzahl der Modelle im Rahmen einer automatisierten Modellevaluierung Jede unterstützte Region: 1 Nein Die maximale Anzahl von Modellen, die Sie in einem automatisierten Modellevaluierungsjob angeben können.
(Evaluierung) Anzahl der Eingabeaufforderungen in einem Datensatz mit benutzerdefinierten Eingabeaufforderungen Jede unterstützte Region: 1 000 Nein Die maximale Anzahl von Eingabeaufforderungen, die ein Datensatz mit benutzerdefinierten Eingabeaufforderungen enthalten kann.
(Bewertung) Größe der Eingabeaufforderung Jede unterstützte Region: 4 Nein Die maximale Größe (in KB) einer einzelnen Eingabeaufforderung in einem benutzerdefinierten Prompt-Datensatz.
(Bewertung) Aufgabenzeit für Mitarbeiter Jede unterstützte Region: 30 Nein Die maximale Zeitdauer (in Tagen), die einem Mitarbeiter zur Erledigung von Aufgaben zur Verfügung stehen kann.
(Flows) Agentenknoten pro Flow Jede unterstützte Region: 20 Nein Die maximale Anzahl von Agentknoten.
(Flows) Collector-Knoten pro Flow Jede unterstützte Region: 1 Nein Die maximale Anzahl von Collector-Knoten.
(Flows) Konditionieren Sie Knoten pro Flow Jede unterstützte Region: 5 Nein Die maximale Anzahl von Bedingungsknoten.
(Flüsse) Bedingungen pro Bedingungsknoten Jede unterstützte Region: 5 Nein Die maximale Anzahl von Bedingungen pro Bedingungsknoten.
(Flows) CreateFlow Anfragen pro Sekunde Jede unterstützte Region: 2 Nein Die maximale Anzahl von CreateFlow Anfragen pro Sekunde.
(Flows) CreateFlowAlias Anfragen pro Sekunde Jede unterstützte Region: 2 Nein Die maximale Anzahl von CreateFlowAlias Anfragen pro Sekunde.
(Flows) CreateFlowVersion Anfragen pro Sekunde Jede unterstützte Region: 2 Nein Die maximale Anzahl von CreateFlowVersion Anfragen pro Sekunde.
(Flows) DeleteFlow Anfragen pro Sekunde Jede unterstützte Region: 2 Nein Die maximale Anzahl von DeleteFlow Anfragen pro Sekunde.
(Flows) DeleteFlowAlias Anfragen pro Sekunde Jede unterstützte Region: 2 Nein Die maximale Anzahl von DeleteFlowAlias Anfragen pro Sekunde.
(Flows) DeleteFlowVersion Anfragen pro Sekunde Jede unterstützte Region: 2 Nein Die maximale Anzahl von DeleteFlowVersion Anfragen pro Sekunde.
(Flows) Flow-Aliase pro Flow Jede unterstützte Region: 10 Nein Die maximale Anzahl von Flow-Aliasen.
(Flows) Flow-Ausführungen pro Konto Jede unterstützte Region: 1 000 Ja Die maximale Anzahl von Flow-Ausführungen pro Konto.
(Flows) Flow-Versionen pro Flow Jede unterstützte Region: 10 Nein Die maximale Anzahl von Flow-Versionen.
(Flows) Flows pro Konto Jede unterstützte Region: 100 Yes (Ja) Die maximale Anzahl von Flows pro Konto.
(Flows-) GetFlow Anfragen pro Sekunde Jede unterstützte Region: 10 Nein Die maximale Anzahl von GetFlow Anfragen pro Sekunde.
(Flows) GetFlowAlias Anfragen pro Sekunde Jede unterstützte Region: 10 Nein Die maximale Anzahl von GetFlowAlias Anfragen pro Sekunde.
(Flows) GetFlowVersion Anfragen pro Sekunde Jede unterstützte Region: 10 Nein Die maximale Anzahl von GetFlowVersion Anfragen pro Sekunde.
(Flows) Inline-Codeknoten pro Flow Jede unterstützte Region: 5 Nein Die maximale Anzahl von Inline-Codeknoten pro Flow.
(Flows) Eingabeknoten pro Flow Jede unterstützte Region: 1 Nein Die maximale Anzahl von Flow-Eingabeknoten.
(Flows) Iterator-Knoten pro Flow Jede unterstützte Region: 1 Nein Die maximale Anzahl von Iteratorknoten.
(Flows) Knotenpunkte in der Wissensdatenbank pro Flow Jede unterstützte Region: 20 Nein Die maximale Anzahl von Knotenpunkten in der Wissensdatenbank.
(Flows) Lambda-Funktionsknoten pro Flow Jede unterstützte Region: 20 Nein Die maximale Anzahl von Lambda-Funktionsknoten.
(Flows) Lex-Knoten pro Flow Jede unterstützte Region: 5 Nein Die maximale Anzahl von Lex-Knoten.
(Flows) ListFlowAliases Anfragen pro Sekunde Jede unterstützte Region: 10 Nein Die maximale Anzahl von ListFlowAliases Anfragen pro Sekunde.
(Flows) ListFlowVersions Anfragen pro Sekunde Jede unterstützte Region: 10 Nein Die maximale Anzahl von ListFlowVersions Anfragen pro Sekunde.
(Flows) ListFlows Anfragen pro Sekunde Jede unterstützte Region: 10 Nein Die maximale Anzahl von ListFlows Anfragen pro Sekunde.
(Flows) Ausgabeknoten pro Flow Jede unterstützte Region: 20 Nein Die maximale Anzahl von Flow-Ausgabeknoten.
(Flows-) PrepareFlow Anfragen pro Sekunde Jede unterstützte Region: 2 Nein Die maximale Anzahl von PrepareFlow Anfragen pro Sekunde.
(Flows) Prompt Knoten pro Flow Jede unterstützte Region: 20 Ja Die maximale Anzahl von Prompt-Knoten.
(Flows) S3-Abrufknoten pro Flow Jede unterstützte Region: 10 Nein Die maximale Anzahl von S3-Abrufknoten.
(Flows) S3-Speicherknoten pro Flow Jede unterstützte Region: 10 Nein Die maximale Anzahl von S3-Speicherknoten.
(Flows) Gesamtzahl der Knoten pro Flow Jede unterstützte Region: 40 Nein Die maximale Anzahl von Knoten in einem Flow.
(Flows) UpdateFlow Anfragen pro Sekunde Jede unterstützte Region: 2 Nein Die maximale Anzahl von UpdateFlow Anfragen pro Sekunde.
(Flows) UpdateFlowAlias Anfragen pro Sekunde Jede unterstützte Region: 2 Nein Die maximale Anzahl von UpdateFlowAlias Anfragen pro Sekunde.
(Flows) ValidateFlowDefinition Anfragen pro Sekunde Jede unterstützte Region: 2 Nein Die maximale Anzahl von ValidateFlowDefinition Anfragen pro Sekunde.
(Guardrails) Richtlinien für automatisiertes Denken pro Leitplanke Jede unterstützte Region: 2 Nein Die maximale Anzahl von Richtlinien für automatisiertes Denken pro Leitplanke.
(Leitplanken) Länge der kontextbezogenen Grundabfrage in Texteinheiten Jede unterstützte Region: 1 Nein Die maximale Länge der Abfrage für die kontextuelle Erdung in Texteinheiten
(Leitplanken) Länge der Antwort auf die kontextuelle Erdung in Texteinheiten Jede unterstützte Region: 5 Nein Die maximale Länge der Antwort für die kontextuelle Erdung in Texteinheiten
(Leitplanken) Länge der kontextuellen Erdungsquelle in Texteinheiten

us-east-1: 100

us-west-2: 100

Jede der anderen unterstützten Regionen: 50

Nein Die maximale Länge der Erdungsquelle für die kontextuelle Erdung in Texteinheiten
(Guardrails) Beispielsätze pro Thema Jede unterstützte Region: 5 Nein Die maximale Anzahl von Themenbeispielen, die pro Thema aufgenommen werden können
(Leitplanken) Leitplanken pro Konto Jede unterstützte Region: 100 Nein Die maximale Anzahl von Leitplanken in einem Konto
(Guardrails) Texteinheiten pro Sekunde für ApplyGuardrail On-Demand-Inhaltsfilterrichtlinien

us-east-1: 200

us-west-2: 200

Jede der anderen unterstützten Regionen: 25

Ja Die maximale Anzahl von Texteinheiten, die für Inhaltsfilterrichtlinien pro Sekunde verarbeitet werden können
(Guardrails) Texteinheiten pro Sekunde für die ApplyGuardrail On-Demand-Inhaltsfilterrichtlinie (Standard)

us-east-1: 200

us-west-2: 200

Jede der anderen unterstützten Regionen: 25

Ja Die maximale Anzahl von Texteinheiten, die für Inhaltsfilterrichtlinien pro Sekunde verarbeitet werden können. Dies gilt für das Standardmodell für Inhaltsrichtlinien.
(Guardrails) Texteinheiten pro Sekunde für die Richtlinie „ ApplyGuardrail Abgelehnte Themen“ auf Anfrage

us-east-1:50

US-West-2:50

Jede der anderen unterstützten Regionen: 25

Ja Die maximale Anzahl von Texteinheiten, die für Richtlinien zum Thema „Abgelehnt“ pro Sekunde verarbeitet werden können
(Guardrails) Texteinheiten pro Sekunde für die ApplyGuardrail Richtlinie „Abgelehnte Themen“ auf Anfrage (Standard)

us-east-1: 200

us-west-2: 200

Jede der anderen unterstützten Regionen: 25

Ja Die maximale Anzahl von Texteinheiten, die für Richtlinien zum Thema „Abgelehnt“ pro Sekunde verarbeitet werden können. Dies gilt für das standardmäßige Richtlinienmodell für Themen.
(Guardrails) On-Demand-Richtlinie zur Filterung ApplyGuardrail vertraulicher Informationen, Texteinheiten, Burst-Rate

us-east-1:400

Jede der anderen unterstützten Regionen: 25

Nein Die maximale Anzahl von Texteinheiten, die für Filterrichtlinien für vertrauliche Informationen in einem Burst verarbeitet werden können.
(Guardrails) Die Richtlinie „Texteinheiten pro Sekunde“ für den On-Demand-Filter für ApplyGuardrail vertrauliche Informationen

us-east-1: 200

us-west-2: 200

Jede der anderen unterstützten Regionen: 25

Ja Die maximale Anzahl von Texteinheiten, die für Filterrichtlinien für vertrauliche Informationen pro Sekunde verarbeitet werden können
(Guardrails) Texteinheiten-Burstrate für ApplyGuardrail On-Demand-Word-Filterrichtlinie

us-east-1:400

Jede der anderen unterstützten Regionen: 25

Nein Die maximale Anzahl von Texteinheiten, die für Word-Filterrichtlinien in einem Block verarbeitet werden können.
(Guardrails) Texteinheiten pro Sekunde nach Bedarf für die ApplyGuardrail Word-Filterrichtlinie

us-east-1: 200

us-west-2: 200

Jede der anderen unterstützten Regionen: 25

Ja Die maximale Anzahl von Texteinheiten, die für Word-Filterrichtlinien pro Sekunde verarbeitet werden können
(Guardrails) ApplyGuardrail Kontextuelle Erdungsrichtlinie für Texteinheiten auf Abruf Jede unterstützte Region: 106 Ja Die maximale Anzahl von Texteinheiten, die für kontextbezogene Grounding-Richtlinien in einem Burst verarbeitet werden können.
(Guardrails) Texteinheiten für ApplyGuardrail kontextbezogene Erdungsrichtlinien auf Abruf pro Sekunde Jede unterstützte Region: 106 Ja Die maximale Anzahl von Texteinheiten, die pro Sekunde für kontextbezogene Grounding-Richtlinien verarbeitet werden können
(Guardrails) On-Demand-Anfragen pro Sekunde ApplyGuardrail

us-east-1:50

US-West-2:50

Jede der anderen unterstützten Regionen: 25

Ja Die maximal zulässige Anzahl von ApplyGuardrail API-Aufrufen pro Sekunde
(Guardrails) Regex-Entitäten im Filter für vertrauliche Informationen Jede unterstützte Region: 10 Nein Die maximale Anzahl von Guardrail-Filter-Regexes, die in eine Richtlinie für vertrauliche Informationen aufgenommen werden können
(Guardrails) Länge der Regex in Zeichen Jede unterstützte Region: 500 Nein Die maximale Länge eines regulären Leitplankenfilters in Zeichen
(Leitplanken) Themen pro Leitplanke Jede unterstützte Region: 30 Nein Die maximale Anzahl von Themen, die in allen Richtlinien für Leitplanken definiert werden können
(Leitplanken) Versionen pro Leitplanke Jede unterstützte Region: 20 Nein Die maximale Anzahl von Versionen, die eine Leitplanke haben kann
(Leitplanken) Wortlänge in Zeichen Jede unterstützte Region: 100 Nein Die maximale Länge eines Worts in einer Liste blockierter Wörter in Zeichen
(Leitplanken) Richtlinie „Wörter pro Wort“ Jede unterstützte Region: 10 000 Nein Die maximale Anzahl von Wörtern, die in eine Liste gesperrter Wörter aufgenommen werden können
(Wissensdatenbanken) Gleichzeitige DeleteKnowledgeBaseDocuments Anfragen IngestKnowledgeBaseDocuments und Anfragen pro Konto Jede unterstützte Region: 10 Nein Die maximale Anzahl von IngestKnowledgeBaseDocuments DeleteKnowledgeBaseDocuments AND-Anfragen, die gleichzeitig in einem Konto ausgeführt werden können.
(Wissensdatenbanken) Gleichzeitige Aufnahmeaufträge pro Konto Jede unterstützte Region: 5 Nein Die maximale Anzahl von Aufnahmeaufträgen, die gleichzeitig in einem Konto ausgeführt werden können.
(Wissensdatenbanken) Gleichzeitige Aufnahmeaufträge pro Datenquelle Jede unterstützte Region: 1 Nein Die maximale Anzahl von Aufnahmeaufträgen, die gleichzeitig für eine Datenquelle ausgeführt werden können.
(Wissensdatenbanken) Gleichzeitige Aufnahmeaufträge pro Wissensdatenbank Jede unterstützte Region: 1 Nein Die maximale Anzahl von Aufnahmeaufträgen, die für eine Wissensdatenbank gleichzeitig ausgeführt werden können.
(Wissensdatenbanken) CreateDataSource -Anfragen pro Sekunde Jede unterstützte Region: 2 Nein Die maximale Anzahl von CreateDataSource API-Anfragen pro Sekunde.
(Wissensdatenbanken) CreateKnowledgeBase Anfragen pro Sekunde Jede unterstützte Region: 2 Nein Die maximale Anzahl von CreateKnowledgeBase API-Anfragen pro Sekunde.
(Wissensdatenbanken) Datenquellen pro Wissensdatenbank Jede unterstützte Region: 5 Nein Die maximale Anzahl von Datenquellen pro Wissensdatenbank.
(Wissensdatenbanken) DeleteDataSource Anfragen pro Sekunde Jede unterstützte Region: 2 Nein Die maximale Anzahl von DeleteDataSource API-Anfragen pro Sekunde.
(Wissensdatenbanken) DeleteKnowledgeBase Anfragen pro Sekunde Jede unterstützte Region: 2 Nein Die maximale Anzahl von DeleteKnowledgeBase API-Anfragen pro Sekunde.
(Wissensdatenbanken) DeleteKnowledgeBaseDocuments Anfragen pro Sekunde Jede unterstützte Region: 5 Nein Die maximale Anzahl von DeleteKnowledgeBaseDocuments API-Anfragen pro Sekunde.
(Wissensdatenbanken) Dateien, die pro Aufnahmejob hinzugefügt oder aktualisiert werden sollen Jede unterstützte Region: 5 000 000 Nein Die maximale Anzahl neuer und aktualisierter Dateien, die pro Aufnahmejob aufgenommen werden können.
(Wissensdatenbanken) Zu löschende Dateien pro Aufnahmejob Jede unterstützte Region: 5 000 000 Nein Die maximale Anzahl von Dateien, die pro Aufnahmeauftrag gelöscht werden können.
(Wissensdatenbanken) Dateien, die pro Auftrag aufgenommen werden sollen. IngestKnowledgeBaseDocuments Jede unterstützte Region: 25 Nein Die maximale Anzahl von Dokumenten, die pro IngestKnowledgeBaseDocuments Anfrage aufgenommen werden können.
(Wissensdatenbanken) GenerateQuery Anfragen pro Sekunde Jede unterstützte Region: 2 Nein Die maximale Anzahl von GenerateQuery API-Anfragen pro Sekunde.
(Wissensdatenbanken) GetDataSource Anfragen pro Sekunde Jede unterstützte Region: 10 Nein Die maximale Anzahl von GetDataSource API-Anfragen pro Sekunde.
(Wissensdatenbanken) GetIngestionJob Anfragen pro Sekunde Jede unterstützte Region: 10 Nein Die maximale Anzahl von GetIngestionJob API-Anfragen pro Sekunde.
(Wissensdatenbanken) GetKnowledgeBase Anfragen pro Sekunde Jede unterstützte Region: 10 Nein Die maximale Anzahl von GetKnowledgeBase API-Anfragen pro Sekunde.
(Wissensdatenbanken) GetKnowledgeBaseDocuments Anfragen pro Sekunde Jede unterstützte Region: 5 Nein Die maximale Anzahl von GetKnowledgeBaseDocuments API-Anfragen pro Sekunde.
(Wissensdatenbanken) IngestKnowledgeBaseDocuments Anfragen pro Sekunde Jede unterstützte Region: 5 Nein Die maximale Anzahl von IngestKnowledgeBaseDocuments API-Anfragen pro Sekunde.
(Wissensdatenbanken) IngestKnowledgeBaseDocuments Gesamtgröße der Nutzlast Jede unterstützte Region: 6 Nein Die maximale Größe (in MB) der gesamten Nutzlast in einer IngestKnowledgeBaseDocuments Anfrage.
(Wissensdatenbanken) Dateigröße des Aufnahmeauftrags Jede unterstützte Region: 50 Nein Die maximale Größe (in MB) einer Datei in einem Aufnahme-Job.
(Wissensdatenbanken) Größe des Aufnahme-Jobs Jede unterstützte Region: 100 Nein Die maximale Größe (in GB) eines Aufnahme-Jobs.
(Wissensdatenbanken) Wissensdatenbanken pro Konto Jede unterstützte Region: 100 Nein Die maximale Anzahl von Wissensdatenbanken pro Konto.
(Wissensdatenbanken) ListDataSources Anfragen pro Sekunde Jede unterstützte Region: 10 Nein Die maximale Anzahl von ListDataSources API-Anfragen pro Sekunde.
(Wissensdatenbanken) ListIngestionJobs Anfragen pro Sekunde Jede unterstützte Region: 10 Nein Die maximale Anzahl von ListIngestionJobs API-Anfragen pro Sekunde.
(Wissensdatenbanken) ListKnowledgeBaseDocuments Anfragen pro Sekunde Jede unterstützte Region: 5 Nein Die maximale Anzahl von ListKnowledgeBaseDocuments API-Anfragen pro Sekunde.
(Wissensdatenbanken) ListKnowledgeBases Anfragen pro Sekunde Jede unterstützte Region: 10 Nein Die maximale Anzahl von ListKnowledgeBases API-Anfragen pro Sekunde.
(Wissensdatenbanken) Maximale Anzahl von Dateien für den BDA-Parser Jede unterstützte Region: 1 000 Nein Die maximale Anzahl von Dateien, die mit Amazon Bedrock Data Automation als Parser verwendet werden können.
(Wissensdatenbanken) Maximale Anzahl von Dateien für Foundation Models als Parser Jede unterstützte Region: 1 000 Nein Die maximale Anzahl von Dateien, die mit Foundation Models als Parser verwendet werden können.
(Wissensdatenbanken) Anfragen pro Sekunde neu bewerten Jede unterstützte Region: 10 Nein Die maximale Anzahl von Rerank-API-Anfragen pro Sekunde.
(Wissensdatenbanken) Anfragen pro Sekunde abrufen Jede unterstützte Region: 20 Nein Die maximale Anzahl von Retrieve-API-Anfragen pro Sekunde.
(Knowledge Bases) RetrieveAndGenerate -Anfragen pro Sekunde Jede unterstützte Region: 20 Nein Die maximale Anzahl von RetrieveAndGenerate API-Anfragen pro Sekunde.
(Wissensdatenbanken) RetrieveAndGenerateStream Anfragen pro Sekunde Jede unterstützte Region: 20 Nein Die maximale Anzahl von RetrieveAndGenerateStream API-Anfragen pro Sekunde.
(Wissensdatenbanken) StartIngestionJob Anfragen pro Sekunde Jede unterstützte Region: 0,1 Nein Die maximale Anzahl von StartIngestionJob API-Anfragen pro Sekunde.
(Wissensdatenbanken) UpdateDataSource Anfragen pro Sekunde Jede unterstützte Region: 2 Nein Die maximale Anzahl von UpdateDataSource API-Anfragen pro Sekunde.
(Wissensdatenbanken) UpdateKnowledgeBase Anfragen pro Sekunde Jede unterstützte Region: 2 Nein Die maximale Anzahl von UpdateKnowledgeBase API-Anfragen pro Sekunde.
(Wissensdatenbanken) Größe der Benutzerabfrage Jede unterstützte Region: 1 000 Nein Die maximale Größe (in Zeichen) einer Benutzerabfrage.
(Modellanpassung) Benutzerdefinierte Modelle pro Konto Jede unterstützte Region: 100 Yes (Ja) Die maximale Anzahl von benutzerdefinierten Modellen in einem Konto.
(Modellanpassung) Laufende Bereitstellungen benutzerdefinierter Modelle Jede unterstützte Region: 2 Ja Die maximale Anzahl von Bereitstellungen eines benutzerdefinierten Modells, das gerade in Bearbeitung ist
(Modellanpassung) Maximale Größe der Eingabedatei für Destillierungsanpassungsaufträge Jede unterstützte Region: 2 Gigabyte Nein Die maximale Größe der Eingabedatei für Aufträge zur Anpassung der Destillation.
(Modellanpassung) Maximale Leitungslänge für Aufträge zur Anpassung der Destillation Jede unterstützte Region: 16 Kilobyte Nein Die maximale Zeilenlänge in der Eingabedatei für Aufträge zur Anpassung der Destillation.
(Modellanpassung) Maximale Anzahl von Eingabeaufforderungen für Aufträge zur Anpassung der Destillation Jede unterstützte Region: 15 000 Nein Die maximale Anzahl von Eingabeaufforderungen, die für Aufträge zur Anpassung der Destillation erforderlich sind.
(Modellanpassung) Maximale Länge des Kontextes zur Feinabstimmung des Studentenmodells für Amazon Nova Micro V1-Destillationsanpassungsaufträge Jede unterstützte Region: 32.000 Nein Die maximale Länge des Kontextes zur Feinabstimmung des Studentenmodells für Amazon Nova Micro V1-Destillationsanpassungsjobs.
(Modellanpassung) Maximale Länge des Kontextes zur Feinabstimmung des Studentenmodells für Amazon Nova V1-Destillationsanpassungsaufträge Jede unterstützte Region: 32.000 Nein Die maximale Länge des Studentenmodells zur Feinabstimmung des Kontextes für Amazon Nova V1-Destillationsanpassungsjobs.
(Anpassung des Modells) Maximale Länge des Kontextes zur Feinabstimmung des Studentenmodells für Aufträge zur Anpassung der Destillation nach dem Vorbild „Anthropic Claude 3 Haiku 20240307 V1“ Jede unterstützte Region: 32.000 Nein Die maximale Länge des Studierendenmodells zur Feinabstimmung des Kontextes für Aufgaben zur Anpassung der Destillation in Anthropic Claude 3 Haiku 20240307 V1.
(Modellanpassung) Maximale Länge des Kontextes für die Feinabstimmung des Studentenmodells für Llama 3.1 70B Instruct V1-Destillationsanpassungsaufträge Jede unterstützte Region: 16 000 Nein Die maximale Länge des Kontextes zur Feinabstimmung des Studentenmodells für Llama 3.1 70B Instruct V1-Destillationsanpassungsaufträge.
(Modellanpassung) Maximale Länge des Kontextes zur Feinabstimmung des Studentenmodells für Llama 3.1 8B Instruct V1-Destillationsanpassungsaufträge Jede unterstützte Region: 32.000 Nein Die maximale Länge des Kontextes zur Feinabstimmung des Studentenmodells für Llama 3.1 8B Instruct V1-Destillationsanpassungsaufträge.
(Modellanpassung) Mindestanzahl von Eingabeaufforderungen für Aufträge zur Anpassung der Destillation Jede unterstützte Region: 100 Nein Die Mindestanzahl von Eingabeaufforderungen, die für Aufträge zur Anpassung der Destillation erforderlich sind.
(Modellanpassung) Geplante Anpassungsaufträge Jede unterstützte Region: 2 Nein Die maximale Anzahl von geplanten Anpassungsaufträgen.
(Modellanpassung) Summe der Schulungs- und Validierungsaufzeichnungen für einen Amazon Nova Lite-Feinsteuerungsauftrag Jede unterstützte Region: 20 000 Ja Die maximale kombinierte Anzahl von Schulungs- und Validierungsdatensätzen, die für einen Amazon Nova Lite-Fine-Tuning-Job zulässig ist.
(Modellanpassung) Summe der Schulungs- und Validierungsaufzeichnungen für einen Amazon Nova Micro Fine-Tuning-Job Jede unterstützte Region: 20 000 Ja Die maximale kombinierte Anzahl von Schulungs- und Validierungsdatensätzen, die für einen Amazon Nova Micro Fine-Tuning-Job zulässig ist.
(Modellanpassung) Summe der Schulungs- und Validierungsaufzeichnungen für einen Amazon Nova Pro-Feinoptimierungsauftrag Jede unterstützte Region: 10 000 Ja Die maximale kombinierte Anzahl von Schulungs- und Validierungsdatensätzen, die für einen Amazon Nova Pro-Feintuning-Job zulässig ist.
(Modellanpassung) Summe der Schulungs- und Validierungsaufzeichnungen für einen Claude 3 Haiku v1-Feintuning-Job Jede unterstützte Region: 10 000 Ja Die maximale kombinierte Anzahl von Schulungs- und Validierungsdatensätzen, die für einen Claude-3-Haiku-Fine-Tuning-Job zulässig war.
(Modellanpassung) Summe der Schulungs- und Validierungsaufzeichnungen für einen Claude 3-5-Haiku v1-Feintuning-Job Jede unterstützte Region: 10 000 Ja Die maximale kombinierte Anzahl von Schulungs- und Validierungsdatensätzen, die für einen Claude 3-5-Haiku-Feintuning-Job zulässig war.
(Modellanpassung) Summe der Schulungs- und Validierungsdatensätze für einen Meta Llama 2 13B v1-Feinabstimmungsauftrag Jede unterstützte Region: 10 000 Ja Die maximale kombinierte Anzahl von Schulungs- und Validierungsdatensätzen, die für einen Meta Llama 2 13B-Feinoptimierungsjob zulässig war.
(Modellanpassung) Summe der Schulungs- und Validierungsdatensätze für einen Meta Llama 2 70B v1-Feinoptimierungsjob Jede unterstützte Region: 10 000 Ja Die maximale kombinierte Anzahl von Schulungs- und Validierungsdatensätzen, die für einen Meta Llama 2 70B-Feinabstimmungsauftrag zulässig war.
(Modellanpassung) Summe der Schulungs- und Validierungsdatensätze für einen Meta Llama 3.1 70B Instruct v1-Feinsteuerungsjob Jede unterstützte Region: 10 000 Ja Die maximale kombinierte Anzahl von Schulungs- und Validierungsdatensätzen, die für einen Meta Llama 3.1 70B Instruct Fine-Tuning-Job zulässig ist.
(Modellanpassung) Summe der Schulungs- und Validierungsdatensätze für einen Meta Llama 3.1 8B Instruct v1-Feinsteuerungsjob Jede unterstützte Region: 10 000 Ja Die maximale kombinierte Anzahl von Schulungs- und Validierungsdatensätzen, die für einen Meta Llama 3.1 8B Instruct Fine-Tuning-Job zulässig ist.
(Modellanpassung) Summe der Schulungs- und Validierungsdatensätze für einen Meta Llama 3.2 11B Instruct v1-Feinsteuerungsjob Jede unterstützte Region: 10 000 Ja Die maximale kombinierte Anzahl von Schulungs- und Validierungsdatensätzen, die für einen Meta Llama 3.2 11B Instruct Fine-Tuning-Job zulässig ist.
(Modellanpassung) Summe der Schulungs- und Validierungsdatensätze für einen Meta Llama 3.2 1B Instruct v1-Feinsteuerungsjob Jede unterstützte Region: 10 000 Ja Die maximale kombinierte Anzahl von Schulungs- und Validierungsdatensätzen, die für einen Meta Llama 3.2 1B Instruct Fine-Tuning-Job zulässig ist.
(Modellanpassung) Summe der Schulungs- und Validierungsdatensätze für einen Meta Llama 3.2 3B Instruct v1-Feinsteuerungsjob Jede unterstützte Region: 10 000 Ja Die maximale kombinierte Anzahl von Schulungs- und Validierungsdatensätzen, die für einen Meta Llama 3.2 3B Instruct Fine-Tuning-Job zulässig ist.
(Modellanpassung) Summe der Schulungs- und Validierungsdatensätze für einen Meta Llama 3.2 90B Instruct v1-Feinsteuerungsjob Jede unterstützte Region: 10 000 Ja Die maximale kombinierte Anzahl von Schulungs- und Validierungsdatensätzen, die für einen Meta Llama 3.2 90B Instruct Fine-Tuning-Job zulässig ist.
(Modellanpassung) Summe der Schulungs- und Validierungsdatensätze für einen Titan Image Generator G1 V1-Feinabstimmungsauftrag Jede unterstützte Region: 10 000 Ja Die maximale kombinierte Anzahl von Schulungs- und Validierungsdatensätzen, die für einen Auftrag zur Feinabstimmung von Titan Image Generator zulässig ist.
(Modellanpassung) Summe der Schulungs- und Validierungsaufzeichnungen für einen Titan Image Generator G1 V2-Feinabstimmungsauftrag Jede unterstützte Region: 10 000 Ja Die maximale kombinierte Anzahl von Schulungs- und Validierungsdatensätzen, die für einen Titan Image Generator V2-Feinabstimmungsauftrag zulässig war.
(Modellanpassung) Summe der Schulungs- und Validierungsaufzeichnungen für einen Titan Multimodal Embeddings G1 v1-Feintuning-Job Jede unterstützte Region: 50 000 Ja Die maximale kombinierte Anzahl von Schulungs- und Validierungsaufzeichnungen, die für einen Feinabstimmungsauftrag mit Titan Multimodal Embeddings zulässig war.
(Modellanpassung) Summe der Schulungs- und Validierungsaufzeichnungen für einen Auftrag vor der Schulung mit Titan Text G1 — Express v1 Continued Jede unterstützte Region: 100 000 Ja Die maximale kombinierte Anzahl von Schulungs- und Validierungsdatensätzen, die für einen Titan Text Express Continued Pre-Training-Job zulässig ist.
(Modellanpassung) Summe der Schulungs- und Validierungsaufzeichnungen für einen Titan Text G1 — Express v1 Fine-Tuning-Job Jede unterstützte Region: 10 000 Ja Die maximale kombinierte Anzahl von Schulungs- und Validierungsdatensätzen, die für einen Titan Text Express-Feintuning-Job zulässig ist.
(Modellanpassung) Summe der Schulungs- und Validierungsdatensätze für einen Job vor der Schulung mit Titan Text G1 — Lite v1 Continued Pre-Trainings Jede unterstützte Region: 100 000 Ja Die maximale kombinierte Anzahl von Schulungs- und Validierungsdatensätzen, die für einen Titan Text Lite Continued Pre-Training-Job zulässig ist.
(Modellanpassung) Summe der Schulungs- und Validierungsaufzeichnungen für einen Titan Text G1 — Lite v1-Feinabstimmungsauftrag Jede unterstützte Region: 10 000 Ja Die maximale kombinierte Anzahl von Schulungs- und Validierungsdatensätzen, die für einen Titan Text Lite-Feinabstimmungsauftrag zulässig ist.
(Modellanpassung) Summe der Schulungs- und Validierungsaufzeichnungen für einen Titan Text G1 - Premier v1-Feinabstimmungsauftrag Jede unterstützte Region: 20 000 Ja Die maximale kombinierte Anzahl von Schulungs- und Validierungsdatensätzen, die für einen Titan Text Premier-Feintuning-Job zulässig ist.
(Modellanpassung) Gesamtzahl der Bereitstellungen benutzerdefinierter Modelle Jede unterstützte Region: 5 Yes (Ja) Gesamtzahl der Bereitstellungen benutzerdefinierter Modelle
(Prompt-Verwaltung) CreatePrompt Anfragen pro Sekunde Jede unterstützte Region: 2 Nein Die maximale Anzahl von CreatePrompt Anfragen pro Sekunde.
(Prompt-Verwaltung) CreatePromptVersion Anfragen pro Sekunde Jede unterstützte Region: 2 Nein Die maximale Anzahl von CreatePromptVersion Anfragen pro Sekunde.
(Prompt-Verwaltung) DeletePrompt Anfragen pro Sekunde Jede unterstützte Region: 2 Nein Die maximale Anzahl von DeletePrompt Anfragen pro Sekunde.
(Prompt-Verwaltung) GetPrompt Anfragen pro Sekunde Jede unterstützte Region: 10 Nein Die maximale Anzahl von GetPrompt Anfragen pro Sekunde.
(Prompt-Verwaltung) ListPrompts Anfragen pro Sekunde Jede unterstützte Region: 10 Nein Die maximale Anzahl von ListPrompts Anfragen pro Sekunde.
(Prompt-Verwaltung) Eingabeaufforderungen pro Konto Jede unterstützte Region: 500 Ja Die maximale Anzahl von Eingabeaufforderungen.
(Eingabeaufforderungsverwaltung) UpdatePrompt Anfragen pro Sekunde Jede unterstützte Region: 2 Nein Die maximale Anzahl von UpdatePrompt Anfragen pro Sekunde.
(Prompt-Verwaltung) Versionen pro Prompt Jede unterstützte Region: 10 Nein Die maximale Anzahl von Versionen pro Eingabeaufforderung.
APIs pro Agent Jede unterstützte Region: 11 Ja Die maximale Anzahl davon APIs , die Sie einem Agenten hinzufügen können.
Aktionsgruppen pro Agent Jede unterstützte Region: 20 Ja Die maximale Anzahl von Aktionsgruppen, die Sie einem Agenten hinzufügen können.
Mitwirkende Agenten pro Agent Jede unterstützte Region: 1 000 Ja Die maximale Anzahl von Collaborator-Agenten, die Sie einem Agenten hinzufügen können.
Agenten pro Konto Jede unterstützte Region: 1 000 Ja Die maximale Anzahl von Agenten in einem Konto.
AssociateAgentKnowledgeBase Anfragen pro Sekunde Jede unterstützte Region: 6 Nein Die maximale Anzahl von AssociateAgentKnowledgeBase API-Anfragen pro Sekunde.
Zugeordnete Aliase pro Agent Jede unterstützte Region: 10 Nein Die maximale Anzahl von Aliasen, die Sie einem Agenten zuordnen können.
Zugeordnete Wissensdatenbanken pro Agent Jede unterstützte Region: 2 Ja Die maximale Anzahl von Wissensdatenbanken, die Sie einem Agenten zuordnen können.
Größe der Batch-Inferenz-Eingabedatei (in GB) für Amazon Nova Premier Jede unterstützte Region: 1 Nein Die maximale Größe einer einzelnen Datei (in GB), die zur Batch-Inferenz für Amazon Nova Premier eingereicht wurde.
Größe der Batch-Inferenz-Eingabedatei (in GB) für Claude 3 Haiku Jede unterstützte Region: 1 Nein Die maximale Größe einer einzelnen Datei (in GB), die zur Batch-Inferenz für Claude-3-Haiku eingereicht wurde.
Größe der Batch-Inferenz-Eingabedatei (in GB) für Claude 3 Opus Jede unterstützte Region: 1 Nein Die maximale Größe einer einzelnen Datei (in GB), die zur Batch-Inferenz für Claude 3 Opus eingereicht wurde.
Größe der Batch-Inferenz-Eingabedatei (in GB) für Claude 3 Sonnet Jede unterstützte Region: 1 Nein Die maximale Größe einer einzelnen Datei (in GB), die für die Batch-Inferenz für Claude 3 Sonnet eingereicht wurde.
Größe der Batch-Inferenz-Eingabedatei (in GB) für Claude 3.5 Haiku Jede unterstützte Region: 1 Nein Die maximale Größe einer einzelnen Datei (in GB), die für die Batch-Inferenz für Claude 3.5 Haiku eingereicht wurde.
Größe der Batch-Inferenz-Eingabedatei (in GB) für Claude 3.5 Sonnet Jede unterstützte Region: 1 Nein Die maximale Größe einer einzelnen Datei (in GB), die für die Batch-Inferenz für Claude 3.5 Sonnet eingereicht wurde.
Größe der Batch-Inferenz-Eingabedatei (in GB) für Claude 3.5 Sonnet v2 Jede unterstützte Region: 1 Nein Die maximale Größe einer einzelnen Datei (in GB), die für die Batch-Inferenz für Claude 3.5 Sonnet v2 eingereicht wurde.
Größe der Batch-Inferenz-Eingabedatei (in GB) für Llama 3.1 405B Instruct Jede unterstützte Region: 1 Nein Die maximale Größe einer einzelnen Datei (in GB), die für die Batch-Inferenz für Llama 3.1 405B Instruct eingereicht wurde.
Größe der Batch-Inferenz-Eingabedatei (in GB) für Llama 3.1 70B Instruct Jede unterstützte Region: 1 Nein Die maximale Größe einer einzelnen Datei (in GB), die für die Batch-Inferenz für Llama 3.1 70B Instruct eingereicht wurde.
Größe der Batch-Inferenz-Eingabedatei (in GB) für Llama 3.1 8B Instruct Jede unterstützte Region: 1 Nein Die maximale Größe einer einzelnen Datei (in GB), die für die Batch-Inferenz für Llama 3.1 8B Instruct eingereicht wurde.
Größe der Batch-Inferenz-Eingabedatei (in GB) für Llama 3.2 11B Instruct Jede unterstützte Region: 1 Nein Die maximale Größe einer einzelnen Datei (in GB), die für die Batch-Inferenz für Llama 3.2 11B Instruct eingereicht wurde.
Größe der Batch-Inferenz-Eingabedatei (in GB) für Llama 3.2 1B Instruct Jede unterstützte Region: 1 Nein Die maximale Größe einer einzelnen Datei (in GB), die für die Batch-Inferenz Llama 3.2 1B Instruct eingereicht wurde.
Größe der Batch-Inferenz-Eingabedatei (in GB) für Llama 3.2 3B Instruct Jede unterstützte Region: 1 Nein Die maximale Größe einer einzelnen Datei (in GB), die zur Batch-Inferenz für Llama 3.2 3B Instruct eingereicht wurde.
Größe der Batch-Inferenz-Eingabedatei (in GB) für Llama 3.2 90B Instruct Jede unterstützte Region: 1 Nein Die maximale Größe einer einzelnen Datei (in GB), die für die Batch-Inferenz für Llama 3.2 90B Instruct eingereicht wurde.
Größe der Batch-Inferenz-Eingabedatei (in GB) für Llama 3.3 70B Instruct Jede unterstützte Region: 1 Nein Die maximale Größe einer einzelnen Datei (in GB), die für die Batch-Inferenz für Llama 3.3 70B Instruct eingereicht wurde.
Größe der Batch-Inferenz-Eingabedatei (in GB) für Llama 4 Maverick Jede unterstützte Region: 1 Nein Die maximale Größe einer einzelnen Datei (in GB), die für die Batch-Inferenz für Llama 4 Maverick eingereicht wurde.
Größe der Batch-Inferenz-Eingabedatei (in GB) für Llama 4 Scout Jede unterstützte Region: 1 Nein Die maximale Größe einer einzelnen Datei (in GB), die für die Batch-Inferenz für Llama 4 Scout eingereicht wurde.
Größe der Batch-Inferenz-Eingabedatei (in GB) für Mistral Large 2 (24.07) Jede unterstützte Region: 1 Nein Die maximale Größe einer einzelnen Datei (in GB), die zur Batch-Inferenz für Mistral Large 2 eingereicht wurde (24.07).
Größe der Batch-Inferenz-Eingabedatei (in GB) für Mistral Small Jede unterstützte Region: 1 Nein Die maximale Größe einer einzelnen Datei (in GB), die zur Batch-Inferenz für Mistral Small eingereicht wurde.
Größe der Batch-Inferenz-Eingabedatei (in GB) für Nova Lite V1 Jede unterstützte Region: 1 Nein Die maximale Größe einer einzelnen Datei (in GB), die zur Batch-Inferenz für Nova Lite V1 eingereicht wurde.
Größe der Batch-Inferenz-Eingabedatei (in GB) für Nova Micro V1 Jede unterstützte Region: 1 Nein Die maximale Größe einer einzelnen Datei (in GB), die zur Batch-Inferenz für Nova Micro V1 eingereicht wurde.
Größe der Batch-Inferenz-Eingabedatei (in GB) für Nova Pro V1 Jede unterstützte Region: 1 Nein Die maximale Größe einer einzelnen Datei (in GB), die zur Batch-Inferenz für Nova Pro V1 eingereicht wurde.
Größe der Batch-Inferenz-Eingabedatei (in GB) für Titan Multimodal Embeddings G1 Jede unterstützte Region: 1 Nein Die maximale Größe einer einzelnen Datei (in GB), die für die Batch-Inferenz für Titan Multimodal Embeddings G1 eingereicht wurde.
Größe der Batch-Inferenz-Eingabedatei für Titan Text Embeddings V2 (in GB) Jede unterstützte Region: 1 Nein Die maximale Größe einer einzelnen Datei (in GB), die zur Batch-Inferenz für Titan Text Embeddings V2 eingereicht wurde.
Auftragsgröße für Batch-Inferenz (in GB) für Amazon Nova Premier Jede unterstützte Region: 5 Nein Die maximale kumulative Größe aller Eingabedateien (in GB), die im Batch-Inferenzjob für Amazon Nova Premier enthalten sind.
Auftragsgröße für Batch-Inferenz (in GB) für Claude 3 Haiku Jede unterstützte Region: 5 Nein Die maximale Gesamtgröße aller Eingabedateien (in GB), die im Batch-Inferenzjob für Claude-3-Haiku enthalten sind.
Auftragsgröße für Batch-Inferenz (in GB) für Claude 3 Opus Jede unterstützte Region: 5 Nein Die maximale kumulative Größe aller Eingabedateien (in GB), die im Batch-Inferenzjob für Claude 3 Opus enthalten sind.
Auftragsgröße für Batch-Inferenz (in GB) für Claude 3 Sonnet Jede unterstützte Region: 5 Nein Die maximale Gesamtgröße aller Eingabedateien (in GB), die im Batch-Inferenzjob für Claude 3 Sonnet enthalten sind.
Auftragsgröße für Batch-Inferenz (in GB) für Claude 3.5 Haiku Jede unterstützte Region: 5 Nein Die maximale Gesamtgröße aller Eingabedateien (in GB), die im Batch-Inferenzjob für Claude 3.5 Haiku enthalten sind.
Auftragsgröße für Batch-Inferenz (in GB) für Claude 3.5 Sonnet Jede unterstützte Region: 5 Nein Die maximale Gesamtgröße aller Eingabedateien (in GB), die im Batch-Inferenzjob für Claude 3.5 Sonnet enthalten sind.
Auftragsgröße für Batch-Inferenz (in GB) für Claude 3.5 Sonnet v2 Jede unterstützte Region: 5 Nein Die maximale Gesamtgröße aller Eingabedateien (in GB), die im Batch-Inferenzjob für Claude 3.5 Sonnet v2 enthalten sind.
Auftragsgröße für Batch-Inferenz (in GB) für Llama 3.1 405B Instruct Jede unterstützte Region: 5 Nein Die maximale kumulative Größe aller Eingabedateien (in GB), die im Batch-Inferenzjob für Llama 3.1 405B Instruct enthalten sind.
Auftragsgröße für Batch-Inferenz (in GB) für Llama 3.1 70B Instruct Jede unterstützte Region: 5 Nein Die maximale kumulative Größe aller Eingabedateien (in GB), die im Batch-Inferenzjob für Llama 3.1 70B Instruct enthalten sind.
Auftragsgröße für Batch-Inferenz (in GB) für Llama 3.1 8B Instruct Jede unterstützte Region: 5 Nein Die maximale kumulative Größe aller Eingabedateien (in GB), die im Batch-Inferenzjob für Llama 3.1 8B Instruct enthalten sind.
Auftragsgröße für Batch-Inferenz (in GB) für Llama 3.2 11B Instruct Jede unterstützte Region: 5 Nein Die maximale kumulative Größe aller Eingabedateien (in GB), die im Batch-Inferenzjob für Llama 3.2 11B Instruct enthalten sind.
Auftragsgröße für Batch-Inferenz (in GB) für Llama 3.2 1B Instruct Jede unterstützte Region: 5 Nein Die maximale kumulative Größe aller Eingabedateien (in GB), die im Batch-Inferenzjob für Llama 3.2 1B Instruct enthalten sind.
Auftragsgröße für Batch-Inferenz (in GB) für Llama 3.2 3B Instruct Jede unterstützte Region: 5 Nein Die maximale kumulative Größe aller Eingabedateien (in GB), die im Batch-Inferenzjob für Llama 3.2 3B Instruct enthalten sind.
Auftragsgröße für Batch-Inferenz (in GB) für Llama 3.2 90B Instruct Jede unterstützte Region: 5 Nein Die maximale kumulative Größe aller Eingabedateien (in GB), die im Batch-Inferenzjob für Llama 3.2 90B Instruct enthalten sind.
Auftragsgröße für Batch-Inferenz (in GB) für Llama 3.3 70B Instruct Jede unterstützte Region: 5 Nein Die maximale kumulative Größe aller Eingabedateien (in GB), die im Batch-Inferenzjob für Llama 3.3 70B Instruct enthalten sind.
Auftragsgröße für Batch-Inferenz (in GB) für Llama 4 Maverick Jede unterstützte Region: 5 Nein Die maximale kumulative Größe aller Eingabedateien (in GB), die im Batch-Inferenzjob für Llama 4 Maverick enthalten sind.
Auftragsgröße für Batch-Inferenz (in GB) für Llama 4 Scout Jede unterstützte Region: 5 Nein Die maximale Gesamtgröße aller Eingabedateien (in GB), die im Batch-Inferenzjob für Llama 4 Scout enthalten sind.
Auftragsgröße für Batch-Inferenz (in GB) für Mistral Large 2 (24,07) Jede unterstützte Region: 5 Nein Die maximale kumulative Größe aller Eingabedateien (in GB), die im Batch-Inferenzjob für Mistral Large 2 enthalten sind (24,07).
Auftragsgröße für Batch-Inferenz (in GB) für Mistral Small Jede unterstützte Region: 5 Nein Die maximale Gesamtgröße aller Eingabedateien (in GB), die im Batch-Inferenzjob für Mistral Small enthalten sind.
Auftragsgröße für Batch-Inferenz (in GB) für Nova Lite V1 Jede unterstützte Region: 5 Nein Die maximale kumulative Größe aller Eingabedateien (in GB), die im Batch-Inferenzjob für Nova Lite V1 enthalten sind.
Auftragsgröße für Batch-Inferenz (in GB) für Nova Micro V1 Jede unterstützte Region: 5 Nein Die maximale kumulative Größe aller Eingabedateien (in GB), die im Batch-Inferenzjob für Nova Micro V1 enthalten sind.
Auftragsgröße für Batch-Inferenz (in GB) für Nova Pro V1 Jede unterstützte Region: 100 Nein Die maximale kumulative Größe aller Eingabedateien (in GB), die im Batch-Inferenzjob für Nova Pro V1 enthalten sind.
Auftragsgröße für Batch-Inferenz (in GB) für Titan Multimodal Embeddings G1 Jede unterstützte Region: 5 Nein Die maximale kumulative Größe aller Eingabedateien (in GB), die im Batch-Inferenzjob für Titan Multimodal Embeddings G1 enthalten sind.
Auftragsgröße für Batch-Inferenz für Titan Text Embeddings V2 (in GB) Jede unterstützte Region: 5 Nein Die maximale kumulative Größe aller Eingabedateien (in GB), die im Batch-Inferenzjob für Titan Text Embeddings V2 enthalten sind.
Charaktere in den Anweisungen für Agenten Jede unterstützte Region: 20 000 Nein Die maximale Anzahl von Zeichen in den Anweisungen für einen Agenten.
Gleichzeitige Modellimportaufträge Jede unterstützte Region: 1 Nein Die maximale Anzahl von Modellimportaufträgen, die gleichzeitig ausgeführt werden.
CreateAgent Anfragen pro Sekunde Jede unterstützte Region: 6 Nein Die maximale Anzahl von CreateAgent API-Anfragen pro Sekunde.
CreateAgentActionGroup Anfragen pro Sekunde Jede unterstützte Region: 12 Nein Die maximale Anzahl von CreateAgentActionGroup API-Anfragen pro Sekunde.
CreateAgentAlias Anfragen pro Sekunde Jede unterstützte Region: 2 Nein Die maximale Anzahl von CreateAgentAlias API-Anfragen pro Sekunde.
Regionsübergreifende Modellinferenzanfragen pro Minute für Anthropic Claude 3.5 Haiku Jede unterstützte Region: 2.000 Nein Die maximale Anzahl von Anrufen InvokeModel in einer Minute. InvokeModelWithResponseStream Die Quote bezieht sich auf die Summe von InvokeModel und InvokeModelWithResponseStream Tokens für Anthropic Claude 3.5 Haiku.
Regionsübergreifende Modellinferenzanfragen pro Minute für Anthropic Claude 3.5 Sonnet V2

us-west-2: 500

Jede der anderen unterstützten Regionen: 100

Nein Die maximale Häufigkeit, mit der Sie Modellinferenz in einer Minute für Anthropic Claude 3.5 Sonnet V2 aufrufen können. Das Kontingent berücksichtigt die Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Regionsübergreifendes Modell Inferenz-Token pro Minute für Anthropic Claude 3.5 Haiku Jede unterstützte Region: 4.000.000 Ja Die maximale Anzahl von On-Demand-Token, die Sie innerhalb einer Minute zur Modellinferenz einreichen können. Die Quote berücksichtigt die Summe der Eingabe- und Ausgabetoken aller Anfragen an Converse InvokeModel und InvokeModelWithResponseStream für Anthropic Claude 3.5 Haiku. ConverseStream
Regionsübergreifendes Modell Inferenz-Token pro Minute für Anthropic Claude 3.5 Sonnet V2

us-west-2:4.000.000

Jede der anderen unterstützten Regionen: 800.000

Ja Die maximale Anzahl von Tokens, die Sie in einer Minute für Anthropic Claude 3.5 Sonnet V2 zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Regionsübergreifende Modellinferenzanfragen pro Minute für Amazon Nova Lite

us-east-1: 2 000

us-east-2:2.000

us-west-1:2.000

us-west-2: 2 000

Jede der anderen unterstützten Regionen: 200

Nein Die maximale Anzahl von regionsübergreifenden Anfragen, die Sie für Amazon Nova Lite innerhalb einer Minute zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe aus Converse, und ConverseStream. InvokeModel InvokeModelWithResponseStream
Regionsübergreifende Modellinferenzanfragen pro Minute für Amazon Nova Micro

us-east-1: 2 000

us-east-2:2.000

us-west-2: 2 000

Jede der anderen unterstützten Regionen: 200

Nein Die maximale Anzahl von regionsübergreifenden Anfragen, die Sie für Amazon Nova Micro innerhalb einer Minute zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe aus Converse, und ConverseStream. InvokeModel InvokeModelWithResponseStream
Regionsübergreifende Modellinferenzanfragen pro Minute für Amazon Nova Premier V1 Jede unterstützte Region: 200 Nein Die maximale Anzahl von regionsübergreifenden Anfragen, die Sie für Amazon Nova Premier V1 innerhalb einer Minute zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die Summe aus Converse, und ConverseStream. InvokeModel InvokeModelWithResponseStream
Regionsübergreifende Modellinferenzanfragen pro Minute für Amazon Nova Pro

us-east-1: 200

us-east-2:200

us-west-1:200

us-west-2: 200

Jede der anderen unterstützten Regionen: 100

Nein Die maximale Anzahl von regionsübergreifenden Anfragen, die Sie für Amazon Nova Pro innerhalb einer Minute zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe aus Converse, und ConverseStream. InvokeModel InvokeModelWithResponseStream
Regionsübergreifende Modellinferenzanfragen pro Minute für Anthropic Claude 3 Haiku

us-east-1: 2 000

us-west-2: 2 000

ap-northeast-1:400

ap-southeast-1:400

Jede der anderen unterstützten Regionen: 800

Nein Die maximale Häufigkeit, mit der Sie in einer Minute Modellinferenz aufrufen können. Die Quote berücksichtigt die Summe aus Converse, ConverseStream, InvokeModel und InvokeModelWithResponseStream für Anthropic Claude 3 Haiku.
Regionsübergreifende Modellinferenzanfragen pro Minute für Anthropic Claude 3 Opus Jede unterstützte Region: 100 Nein Die maximale Anzahl von regionsübergreifenden Anfragen, die Sie innerhalb einer Minute zur Modellinferenz für Anthropic Claude 3 Opus einreichen können. Das Kontingent berücksichtigt die Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Regionsübergreifende Modellinferenzanfragen pro Minute für Anthropic Claude 3 Sonnet

us-east-1: 1,000

us-west-2: 1,000

Jede der anderen unterstützten Regionen: 200

Nein Die maximale Häufigkeit, mit der Sie Modellinferenz in einer Minute aufrufen können. Die Quote berücksichtigt die Summe aus Converse, ConverseStream, InvokeModel und InvokeModelWithResponseStream für Anthropic Claude 3 Sonnet.
Regionsübergreifende Modellinferenzanfragen pro Minute für Anthropic Claude 3.5 Sonnet

us-west-2: 500

ap-northeast-1:40

ap-southeast-1:40

eu-central-1:40

eu-west-1: 40

EU-West-3:40

Jede der anderen unterstützten Regionen: 100

Nein Die maximale Häufigkeit, mit der Sie in einer Minute Modellinferenz für Anthropic Claude 3.5 Sonnet aufrufen können. Das Kontingent berücksichtigt die Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Regionsübergreifende Modellinferenzanfragen pro Minute für Anthropic Claude 3.7 Sonnet V1

us-east-1:250

us-east-2:250

US-West-2:250

eu-central-1: 100

eu-north-1:100

eu-west-1:100

eu-west-3:100

Jede der anderen unterstützten Regionen: 50

Nein Die maximale Anzahl von regionsübergreifenden Anfragen, die Sie für Anthropic Claude 3.7 Sonnet V1 innerhalb einer Minute zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Regionsübergreifende Modellinferenzanfragen pro Minute für Anthropic Claude Opus 4 V1 Jede unterstützte Region: 200 Nein Die maximale Anzahl von regionsübergreifenden Anfragen, die Sie innerhalb einer Minute zur Modellinferenz für Anthropic Claude Opus 4 V1 einreichen können. Das Kontingent berücksichtigt die Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Regionsübergreifende Modellinferenzanfragen pro Minute für Anthropic Claude Opus 4.1 Jede unterstützte Region: 50 Nein Die maximale Anzahl von regionsübergreifenden Anfragen, die Sie für Anthropic Claude Opus 4.1 innerhalb einer Minute zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Regionsübergreifende Modellinferenzanfragen pro Minute für Anthropic Claude Sonnet 4 V1 Jede unterstützte Region: 200 Nein Die maximale Anzahl von regionsübergreifenden Anfragen, die Sie innerhalb einer Minute zur Modellinferenz für Anthropic Claude Sonnet 4 V1 einreichen können. Das Kontingent berücksichtigt die Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Regionsübergreifende Modell-Inferenzanfragen pro Minute für R1 V1 DeepSeek Jede unterstützte Region: 200 Nein Die maximale Anzahl von regionsübergreifenden Anfragen, die Sie in einer Minute für R1 V1 zur Modellinferenz einreichen können. DeepSeek Das Kontingent berücksichtigt die kombinierte Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Regionsübergreifende Modell-Inferenzanfragen pro Minute für Meta Llama 3.1 405B Instruct Jede unterstützte Region: 400 Nein Die maximale Anzahl von regionsübergreifenden Anfragen, die Sie innerhalb einer Minute zur Modellinferenz für Meta Llama 3.1 405B Instruct einreichen können. Das Kontingent berücksichtigt die Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Regionsübergreifende Modell-Inferenzanfragen pro Minute für Meta Llama 3.1 70B Instruct Jede unterstützte Region: 800 Nein Die maximale Anzahl von regionsübergreifenden Anfragen, die Sie innerhalb einer Minute zur Modellinferenz für Meta Llama 3.1 70B Instruct einreichen können. Das Kontingent berücksichtigt die Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Regionsübergreifende Modell-Inferenzanfragen pro Minute für Meta Llama 3.1 8B Instruct Jede unterstützte Region: 1 600 Nein Die maximale Anzahl von regionsübergreifenden Anfragen, die Sie innerhalb einer Minute zur Modellinferenz für Meta Llama 3.1 8B Instruct einreichen können. Das Kontingent berücksichtigt die Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Regionsübergreifende Modell-Inferenzanfragen pro Minute für Meta Llama 3.2 1B Instruct Jede unterstützte Region: 1 600 Nein Die maximale Anzahl von regionsübergreifenden Anfragen, die Sie innerhalb einer Minute zur Modellinferenz für Meta Llama 3.2 1B Instruct einreichen können. Das Kontingent berücksichtigt die Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Regionsübergreifende Modell-Inferenzanfragen pro Minute für Meta Llama 3.2 3B Instruct Jede unterstützte Region: 1 600 Nein Die maximale Häufigkeit, mit der Sie Modellinferenz in einer Minute für Meta Llama 3.2 3B Instruct aufrufen können. Das Kontingent berücksichtigt die kombinierte Summe der Anfragen für InvokeModel, InvokeModelWithResponseStream, Converse und. ConverseStream
Regionsübergreifende Modell-Inferenzanfragen pro Minute für Meta Llama 3.3 70B Instruct Jede unterstützte Region: 800 Nein Die maximale Anzahl von regionsübergreifenden Anfragen, die Sie innerhalb einer Minute zur Modellinferenz für Meta Llama 3.3 70B Instruct einreichen können. Das Kontingent berücksichtigt die Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Regionsübergreifende Modell-Inferenzanfragen pro Minute für Meta Llama 4 Maverick V1 Jede unterstützte Region: 800 Nein Die maximale Anzahl von regionsübergreifenden Anfragen, die Sie in einer Minute für Meta Llama 4 Maverick V1 zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Regionsübergreifende Modell-Inferenzanfragen pro Minute für Meta Llama 4 Scout V1 Jede unterstützte Region: 800 Nein Die maximale Anzahl von regionsübergreifenden Anfragen, die Sie innerhalb einer Minute zur Modellinferenz für Meta Llama 4 Scout V1 einreichen können. Das Kontingent berücksichtigt die Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Regionsübergreifende Modellinferenzanfragen pro Minute für Mistral Pixtral Large 25.02 V1 Jede unterstützte Region: 10 Nein Die maximale Anzahl von regionsübergreifenden Anfragen, die Sie innerhalb einer Minute zur Modellinferenz für Mistral Pixtral Large 25.02 V1 einreichen können. Das Kontingent berücksichtigt die Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Regionsübergreifende Modellinferenzanfragen pro Minute für Twelve Labs Pegasus Jede unterstützte Region: 120 Nein Die maximale Anzahl von regionsübergreifenden Anfragen, die Sie für Twelve Labs Pegasus innerhalb einer Minute zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Regionsübergreifende Modell-Inferenzanfragen pro Minute für Writer AI Palmyra X4 V1 Jede unterstützte Region: 10 Nein Die maximale Anzahl von regionsübergreifenden Anfragen, die Sie innerhalb einer Minute zur Modellinferenz für Writer AI Palmyra X4 V1 einreichen können. Das Kontingent berücksichtigt die Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Regionsübergreifende Modell-Inferenzanfragen pro Minute für Writer AI Palmyra X5 V1 Jede unterstützte Region: 10 Nein Die maximale Anzahl von regionsübergreifenden Anfragen, die Sie in einer Minute zur Modellinferenz für Writer AI Palmyra X5 V1 einreichen können. Das Kontingent berücksichtigt die Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Regionsübergreifende Modell-Inferenz-Token pro Minute für Amazon Nova Lite

us-east-1:4.000.000

us-east-2:4.000.000

us-west-1:4.000.000

us-west-2:4.000.000

Jede der anderen unterstützten Regionen: 200.000

Ja Die maximale Anzahl von regionsübergreifenden Token, die Sie innerhalb einer Minute für Amazon Nova Lite zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, ConverseStream und. InvokeModel InvokeModelWithResponseStream
Regionsübergreifende Modell-Inferenz-Token pro Minute für Amazon Nova Micro

us-east-1:4.000.000

us-east-2:4.000.000

us-west-2:4.000.000

Jede der anderen unterstützten Regionen: 200.000

Ja Die maximale Anzahl von regionsübergreifenden Token, die Sie innerhalb einer Minute für Amazon Nova Micro zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, ConverseStream und. InvokeModel InvokeModelWithResponseStream
Regionsübergreifende Modell-Inferenz-Token pro Minute für Amazon Nova Premier V1 Jede unterstützte Region: 800.000 Ja Die maximale Anzahl von regionsübergreifenden Token, die Sie innerhalb einer Minute für Amazon Nova Premier V1 zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, ConverseStream und. InvokeModel InvokeModelWithResponseStream
Regionsübergreifende Modell-Inferenz-Token pro Minute für Amazon Nova Pro

us-east-1:800.000

us-east-2:800.000

us-west-1:800.000

US-West-2:800.000

Jede der anderen unterstützten Regionen: 200.000

Ja Die maximale Anzahl von regionsübergreifenden Token, die Sie innerhalb einer Minute für Amazon Nova Pro zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, ConverseStream und. InvokeModel InvokeModelWithResponseStream
Regionsübergreifendes Modell Inferenz-Token pro Minute für anthropisches Claude-3-Haiku

us-east-1:4.000.000

us-west-2:4.000.000

ap-northeast-1:400.000

ap-southeast-1:400.000

Jede der anderen unterstützten Regionen: 600.000

Ja Die maximale Anzahl von On-Demand-Token, die Sie innerhalb einer Minute zur Modellinferenz einreichen können. Die Quote berücksichtigt die Summe der Eingabe- und Ausgabetoken aller Anfragen an Converse InvokeModel und InvokeModelWithResponseStream für Anthropic Claude 3 Haiku. ConverseStream
Regionsübergreifendes Modell Inferenz-Token pro Minute für Anthropic Claude 3 Opus Jede unterstützte Region: 800.000 Ja Die maximale Anzahl an regionsübergreifenden Tokens, die Sie innerhalb einer Minute für Anthropic Claude 3 Opus zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Regionsübergreifendes Modell Inferenz-Token pro Minute für Anthropic Claude 3 Sonnet

us-east-1:2.000.000

us-west-2:2.000.000

Jede der anderen unterstützten Regionen: 400.000

Ja Die maximale Anzahl von On-Demand-Token, die Sie innerhalb einer Minute zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse InvokeModel und InvokeModelWithResponseStream für Anthropic Claude 3 Sonnet. ConverseStream
Regionsübergreifendes Modell Inferenz-Token pro Minute für Anthropic Claude 3.5 Sonnet

us-west-2:4.000.000

ap-northeast-1:400.000

ap-southeast-1:400.000

eu-central-1:400.000

eu-west-1:400.000

eu-west-3:400.000

Jede der anderen unterstützten Regionen: 800.000

Ja Die maximale Anzahl von Tokens, die Sie in einer Minute für Anthropic Claude 3.5 Sonnet zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Regionsübergreifendes Modell Inferenz-Token pro Minute für Anthropic Claude 3.7 Sonnet V1

us-east-1:1.000.000

us-east-2:1.000.000

us-west-2:1.000.000

eu-central-1:100.000

eu-north-1:100.000

eu-west-1:100.000

eu-west-3:100.000

Jede der anderen unterstützten Regionen: 50.000

Ja Die maximale Anzahl regionsübergreifender Token, die Sie in einer Minute für Anthropic Claude 3.7 Sonnet V1 zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Regionsübergreifendes Modell Inferenz-Token pro Minute für Anthropic Claude Opus 4 V1 Jede unterstützte Region: 200 000 Ja Die maximale Anzahl von regionsübergreifenden Tokens, die Sie innerhalb einer Minute zur Modellinferenz für Anthropic Claude Opus 4 V1 einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Regionsübergreifendes Modell Inferenz-Token pro Minute für Anthropic Claude Opus 4.1 Jede unterstützte Region: 100 000 Ja Die maximale Anzahl von regionsübergreifenden Tokens, die Sie für Anthropic Claude Opus 4.1 innerhalb einer Minute zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Regionsübergreifendes Modell Inferenz-Token pro Minute für Anthropic Claude Sonnet 4 V1 Jede unterstützte Region: 200 000 Ja Die maximale Anzahl von regionsübergreifenden Tokens, die Sie für Anthropic Claude Sonnet 4 V1 innerhalb einer Minute zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Regionsübergreifendes Modell Inferenz-Token pro Minute für R1 V1 DeepSeek Jede unterstützte Region: 200 000 Ja Die maximale Anzahl von regionsübergreifenden Token, die Sie in einer Minute für R1 V1 zur Modellinferenz einreichen können. DeepSeek Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Regionsübergreifendes Modell Inferenz-Token pro Minute für Meta Llama 3.1 405B Instruct Jede unterstützte Region: 800.000 Ja Die maximale Anzahl regionsübergreifender Token, die Sie innerhalb einer Minute zur Modellinferenz für Meta Llama 3.1 405B Instruct einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Regionsübergreifendes Modell Inferenz-Token pro Minute für Meta Llama 3.1 70B Instruct Jede unterstützte Region: 600.000 Ja Die maximale Anzahl regionsübergreifender Token, die Sie innerhalb einer Minute zur Modellinferenz für Meta Llama 3.1 70B Instruct einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Regionsübergreifendes Modell Inferenz-Token pro Minute für Meta Llama 3.1 8B Instruct Jede unterstützte Region: 600.000 Ja Die maximale Anzahl regionsübergreifender Token, die Sie innerhalb einer Minute zur Modellinferenz für Meta Llama 3.1 8B Instruct einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Regionsübergreifendes Modell Inferenz-Token pro Minute für Meta Llama 3.2 1B Instruct Jede unterstützte Region: 600.000 Ja Die maximale Anzahl regionsübergreifender Token, die Sie innerhalb einer Minute zur Modellinferenz für Meta Llama 3.2 1B Instruct einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Regionsübergreifendes Modell Inferenz-Token pro Minute für Meta Llama 3.2 3B Instruct Jede unterstützte Region: 600.000 Ja Die maximale Anzahl von Tokens, die Sie in einer Minute zur Modellinferenz für Meta Llama 3.2 3B Instruct einreichen können. Die Quote berücksichtigt die kombinierte Summe der Tokens für InvokeModel, InvokeModelWithResponseStream, Converse und. ConverseStream
Regionsübergreifendes Modell Inferenz-Token pro Minute für Meta Llama 3.3 70B Instruct Jede unterstützte Region: 600.000 Ja Die maximale Anzahl regionsübergreifender Token, die Sie innerhalb einer Minute zur Modellinferenz für Meta Llama 3.3 70B Instruct einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Regionsübergreifendes Modell Inferenz-Token pro Minute für Meta Llama 4 Maverick V1 Jede unterstützte Region: 600.000 Ja Die maximale Anzahl regionsübergreifender Token, die Sie in einer Minute für Meta Llama 4 Maverick V1 zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Regionsübergreifendes Modell Inferenz-Token pro Minute für Meta Llama 4 Scout V1 Jede unterstützte Region: 600.000 Ja Die maximale Anzahl regionsübergreifender Token, die Sie in einer Minute für Meta Llama 4 Scout V1 zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Regionsübergreifendes Modell Inferenz-Token pro Minute für Mistral Pixtral Large 25.02 V1 Jede unterstützte Region: 80 000 Ja Die maximale Anzahl von regionsübergreifenden Token, die Sie innerhalb einer Minute zur Modellinferenz für Mistral Pixtral Large 25.02 V1 einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Regionsübergreifendes Modell Inferenz-Token pro Minute für Writer AI Palmyra X4 V1 Jede unterstützte Region: 150 000 Ja Die maximale Anzahl von regionsübergreifenden Token, die Sie innerhalb einer Minute zur Modellinferenz für Writer AI Palmyra X4 V1 einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Regionsübergreifendes Modell Inferenz-Token pro Minute für Writer AI Palmyra X5 V1 Jede unterstützte Region: 150 000 Ja Die maximale Anzahl von regionsübergreifenden Token, die Sie in einer Minute zur Modellinferenz für Writer AI Palmyra X5 V1 einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Benutzerdefinierte Modelle mit einem Erstellungsstatus pro Konto Jede unterstützte Region: 2 Ja Die maximale Anzahl von benutzerdefinierten Modellen mit dem Status „Erstellen“.
DeleteAgent Anfragen pro Sekunde Jede unterstützte Region: 2 Nein Die maximale Anzahl von DeleteAgent API-Anfragen pro Sekunde.
DeleteAgentActionGroup Anfragen pro Sekunde Jede unterstützte Region: 2 Nein Die maximale Anzahl von DeleteAgentActionGroup API-Anfragen pro Sekunde.
DeleteAgentAlias Anfragen pro Sekunde Jede unterstützte Region: 2 Nein Die maximale Anzahl von DeleteAgentAlias API-Anfragen pro Sekunde.
DeleteAgentVersion Anfragen pro Sekunde Jede unterstützte Region: 2 Nein Die maximale Anzahl von DeleteAgentVersion API-Anfragen pro Sekunde.
DisassociateAgentKnowledgeBase Anfragen pro Sekunde Jede unterstützte Region: 4 Nein Die maximale Anzahl von DisassociateAgentKnowledgeBase API-Anfragen pro Sekunde.
Aktivierte Aktionsgruppen pro Agent Jede unterstützte Region: 15 Ja Die maximale Anzahl von Aktionsgruppen, die Sie in einem Agenten aktivieren können.
Endpunkte pro Inferenzprofil Jede unterstützte Region: 5 Nein Die maximale Anzahl von Endpunkten in einem Inferenzprofil. Ein Endpunkt wird durch ein Modell und die Region definiert, an die die Aufrufanforderungen an das Modell gesendet werden.
GetAgent Anfragen pro Sekunde Jede unterstützte Region: 15 Nein Die maximale Anzahl von GetAgent API-Anfragen pro Sekunde.
GetAgentActionGroup Anfragen pro Sekunde Jede unterstützte Region: 20 Nein Die maximale Anzahl von GetAgentActionGroup API-Anfragen pro Sekunde.
GetAgentAlias Anfragen pro Sekunde Jede unterstützte Region: 10 Nein Die maximale Anzahl von GetAgentAlias API-Anfragen pro Sekunde.
GetAgentKnowledgeBase Anfragen pro Sekunde Jede unterstützte Region: 15 Nein Die maximale Anzahl von GetAgentKnowledgeBase API-Anfragen pro Sekunde.
GetAgentVersion Anfragen pro Sekunde Jede unterstützte Region: 10 Nein Die maximale Anzahl von GetAgentVersion API-Anfragen pro Sekunde.
Importierte Modelle pro Konto Jede unterstützte Region: 3 Ja Die maximale Anzahl importierter Modelle in einem Konto.
Inferenzprofile pro Konto Jede unterstützte Region: 1 000 Ja Die maximale Anzahl von Inferenzprofilen in einem Konto.
ListAgentActionGroups Anfragen pro Sekunde Jede unterstützte Region: 10 Nein Die maximale Anzahl von ListAgentActionGroups API-Anfragen pro Sekunde.
ListAgentAliases Anfragen pro Sekunde Jede unterstützte Region: 10 Nein Die maximale Anzahl von ListAgentAliases API-Anfragen pro Sekunde.
ListAgentKnowledgeBases Anfragen pro Sekunde Jede unterstützte Region: 10 Nein Die maximale Anzahl von ListAgentKnowledgeBases API-Anfragen pro Sekunde.
ListAgentVersions Anfragen pro Sekunde Jede unterstützte Region: 10 Nein Die maximale Anzahl von ListAgentVersions API-Anfragen pro Sekunde.
ListAgents Anfragen pro Sekunde Jede unterstützte Region: 10 Nein Die maximale Anzahl von ListAgents API-Anfragen pro Sekunde.
Mindestanzahl von Datensätzen pro Batch-Inferenzauftrag für Amazon Nova Premier Jede unterstützte Region: 100 Nein Die Mindestanzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Amazon Nova Premier.
Mindestanzahl von Datensätzen pro Batch-Inferenzauftrag für Claude 3 Haiku Jede unterstützte Region: 100 Nein Die Mindestanzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Claude-3-Haiku.
Mindestanzahl von Datensätzen pro Batch-Inferenzauftrag für Claude 3 Opus Jede unterstützte Region: 100 Nein Die Mindestanzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Claude 3 Opus.
Mindestanzahl von Datensätzen pro Batch-Inferenzauftrag für Claude 3 Sonnet Jede unterstützte Region: 100 Nein Die Mindestanzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Claude 3 Sonnet.
Mindestanzahl von Datensätzen pro Batch-Inferenzauftrag für Claude 3.5 Haiku Jede unterstützte Region: 100 Nein Die Mindestanzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Claude 3.5 Haiku.
Mindestanzahl von Datensätzen pro Batch-Inferenzauftrag für Claude 3.5 Sonnet Jede unterstützte Region: 100 Nein Die Mindestanzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Claude 3.5 Sonnet.
Mindestanzahl von Datensätzen pro Batch-Inferenzauftrag für Claude 3.5 Sonnet v2 Jede unterstützte Region: 100 Nein Die Mindestanzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Claude 3.5 Sonnet v2.
Mindestanzahl von Datensätzen pro Batch-Inferenzjob für Llama 3.1 405B Instruct Jede unterstützte Region: 100 Nein Die Mindestanzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Llama 3.1 405B Instruct.
Mindestanzahl von Datensätzen pro Batch-Inferenzjob für Llama 3.1 70B Instruct Jede unterstützte Region: 100 Nein Die Mindestanzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Llama 3.1 70B Instruct.
Mindestanzahl von Datensätzen pro Batch-Inferenzjob für Llama 3.1 8B Instruct Jede unterstützte Region: 100 Nein Die Mindestanzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Llama 3.1 8B Instruct.
Mindestanzahl von Datensätzen pro Batch-Inferenzjob für Llama 3.2 11B Instruct Jede unterstützte Region: 100 Nein Die Mindestanzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Llama 3.2 11B Instruct.
Mindestanzahl von Datensätzen pro Batch-Inferenzjob für Llama 3.2 1B Instruct Jede unterstützte Region: 100 Nein Die Mindestanzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob Llama 3.2 1B Instruct.
Mindestanzahl von Datensätzen pro Batch-Inferenzjob für Llama 3.2 3B Instruct Jede unterstützte Region: 100 Nein Die Mindestanzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Llama 3.2 3B Instruct.
Mindestanzahl von Datensätzen pro Batch-Inferenzjob für Llama 3.2 90B Instruct Jede unterstützte Region: 100 Nein Die Mindestanzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Llama 3.2 90B Instruct.
Mindestanzahl von Datensätzen pro Batch-Inferenzjob für Llama 3.3 70B Instruct Jede unterstützte Region: 100 Nein Die Mindestanzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Llama 3.3 70B Instruct.
Mindestanzahl von Datensätzen pro Batch-Inferenzjob für Llama 4 Maverick Jede unterstützte Region: 100 Nein Die Mindestanzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Llama 4 Maverick.
Mindestanzahl von Datensätzen pro Batch-Inferenzjob für Llama 4 Scout Jede unterstützte Region: 100 Nein Die Mindestanzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Llama 4 Scout.
Mindestanzahl von Datensätzen pro Batch-Inferenzjob für Mistral Large 2 (24.07) Jede unterstützte Region: 100 Nein Die Mindestanzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Mistral Large 2 (24.07).
Mindestanzahl von Datensätzen pro Batch-Inferenzjob für Mistral Small Jede unterstützte Region: 100 Nein Die Mindestanzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Mistral Small.
Mindestanzahl von Datensätzen pro Batch-Inferenzjob für Nova Lite V1 Jede unterstützte Region: 100 Nein Die Mindestanzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Nova Lite V1.
Mindestanzahl von Datensätzen pro Batch-Inferenzjob für Nova Micro V1 Jede unterstützte Region: 100 Nein Die Mindestanzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Nova Micro V1.
Mindestanzahl von Datensätzen pro Batch-Inferenzjob für Nova Pro V1 Jede unterstützte Region: 100 Nein Die Mindestanzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Nova Pro V1.
Mindestanzahl von Datensätzen pro Batch-Inferenzjob für Titan Multimodal Embeddings G1 Jede unterstützte Region: 100 Nein Die Mindestanzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Titan Multimodal Embeddings G1.
Mindestanzahl von Datensätzen pro Batch-Inferenzjob für Titan Text Embeddings V2 Jede unterstützte Region: 100 Nein Die Mindestanzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Titan Text Embeddings V2.
Maximale Anzahl an Tokens pro Tag für Modellaufrufe für Amazon Nova Premier V1 (verdoppelt bei regionsübergreifenden Anrufen) Jede unterstützte Region: 576.000.000 Nein Tägliche maximale Tokenanzahl für Modellinferenz für Amazon Nova Premier V1. Kombiniert die Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse ConverseStream, InvokeModel und. InvokeModelWithResponseStream Verdoppelt bei regionsübergreifenden Anrufen; gilt nicht für den Fall einer genehmigten TPM-Erhöhung.
Modellieren Sie die maximale Anzahl an Tokens pro Tag für Anthropic Claude 3.7 Sonnet V1 (verdoppelt bei regionsübergreifenden Anrufen) Jede unterstützte Region: 720.000.000 Nein Tageshöchstzahl an Tokens für Modellinferenz für Anthropic Claude 3.7 Sonnet V1. Kombiniert die Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream Verdoppelt bei regionsübergreifenden Anrufen; gilt nicht für den Fall einer genehmigten TPM-Erhöhung.
Modellieren Sie die maximale Anzahl an Tokens pro Tag für Anthropic Claude Opus 4 V1 (verdoppelt bei regionsübergreifenden Aufrufen) Jede unterstützte Region: 144.000.000 Nein Tägliches Maximum an Tokens für Modellinferenz für Anthropic Claude Opus 4 V1. Kombiniert die Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream Verdoppelt bei regionsübergreifenden Anrufen; gilt nicht für den Fall einer genehmigten TPM-Erhöhung.
Modellieren Sie die maximale Anzahl an Tokens pro Tag für Anthropic Claude Opus 4.1 (verdoppelt bei regionsübergreifenden Aufrufen) Jede unterstützte Region: 72.000.000 Nein Tägliches Maximum an Tokens für Modellinferenz für Anthropic Claude Opus 4.1. Kombiniert die Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream Verdoppelt bei regionsübergreifenden Anrufen; gilt nicht für den Fall einer genehmigten TPM-Erhöhung.
Modellieren Sie die maximale Anzahl an Tokens pro Tag für Anthropic Claude Sonnet 4 V1 (verdoppelt bei regionsübergreifenden Anrufen) Jede unterstützte Region: 144.000.000 Nein Tageshöchstzahl an Tokens für Modellinferenz für Anthropic Claude Sonnet 4 V1. Kombiniert die Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream Verdoppelt bei regionsübergreifenden Anrufen; gilt nicht für den Fall einer genehmigten TPM-Erhöhung.
Modellieren Sie die maximale Anzahl an Tokens pro Tag für DeepSeek R1 V1 (verdoppelt bei regionsübergreifenden Aufrufen) Jede unterstützte Region: 144.000.000 Nein Tageshöchstzahl an Tokens für Modellinferenz für R1 V1. DeepSeek Kombiniert die Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, ConverseStream und. InvokeModel InvokeModelWithResponseStream Verdoppelt bei regionsübergreifenden Anrufen; gilt nicht für den Fall einer genehmigten TPM-Erhöhung.
Max. Anzahl der Tokens pro Tag für den Modellaufruf für OpenAI GPT OSS 120B (verdoppelt für regionsübergreifende Anrufe) Jede unterstützte Region: 1.440.000.000 Nein Tägliche maximale Tokens für Modellinferenz für OpenAI GPT OSS 120B. Kombiniert die Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream Verdoppelt bei regionsübergreifenden Anrufen; gilt nicht für den Fall einer genehmigten TPM-Erhöhung.
Max. Tokens pro Tag für Model-Aufrufe für OpenAI GPT OSS 20B (verdoppelt für regionsübergreifende Anrufe) Jede unterstützte Region: 1.440.000.000 Nein Tägliche maximale Tokens für Modellinferenz für OpenAI GPT OSS 20B. Kombiniert die Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream Verdoppelt bei regionsübergreifenden Anrufen; gilt nicht für den Fall einer genehmigten TPM-Erhöhung.
Modelleinheiten unverbindlich Bereitgestellte Durchsätze für alle Basismodelle Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die auf unverbindliche Provisioned Throughputs für Basismodelle verteilt werden können
Modelleinheiten unverbindlich Bereitgestellte Durchsätze auf benutzerdefinierte Modelle Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die auf unverbindlich bereitgestellte Durchsätze für benutzerdefinierte Modelle verteilt werden können
Modelleinheiten pro bereitgestelltem Modell für Labs Jurassic-2 Mid AI21 Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Labs Jurassic-2 Mid zugewiesen werden können. AI21
Modelleinheiten pro bereitgestelltem Modell für Labs Jurassic-2 Ultra AI21 Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Labs Jurassic-2 Ultra zugewiesen werden können. AI21
Modelleinheiten pro bereitgestelltem Modell für Amazon Nova Canvas Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Amazon Nova Canvas zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Amazon Titan Embeddings G1 — Text Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Amazon Titan Embeddings G1 — Text zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Amazon Titan Image Generator G1 Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Amazon Titan Image Generator G1 zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Amazon Titan Image Generator G2 Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Amazon Titan Image Generator G2 zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Amazon Titan Lite V1 4K Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Amazon Titan Text Lite V1 4K zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Amazon Titan Multimodal Embeddings G1 Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Amazon Titan Multimodal Embeddings G1 zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Amazon Titan Text Embeddings V2 Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Amazon Titan Text Embeddings V2 zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Amazon Titan Text G1 — Express 8K Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Amazon Titan Text G1 — Express 8K zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Amazon Titan Text Premier V1 32K Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Amazon Titan Text Premier V1 32K zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Anthropic Claude 3 Haiku 200K Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Anthropic Claude 3 Haiku 200K zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Anthropic Claude 3 Haiku 48K Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Anthropic Claude 3 Haiku 48K zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Anthropic Claude 3 Sonnet 200K Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Anthropic Claude 3 Sonnet 200K zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Anthropic Claude 3 Sonnet 28K Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Anthropic Claude 3 Sonnet 28K zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Anthropic Claude 3.5 Haiku 16K Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Anthropic Claude 3.5 Haiku 16K zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Anthropic Claude 3.5 Haiku 200K Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Anthropic Claude 3.5 Haiku 200K zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Anthropic Claude 3.5 Haiku 64K Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Anthropic Claude 3.5 Haiku 64K zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Anthropic Claude 3.5 Sonnet 18K Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Anthropic Claude 3.5 Sonnet 18K zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Anthropic Claude 3.5 Sonnet 200K Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Anthropic Claude 3.5 Sonnet 200K zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Anthropic Claude 3.5 Sonnet 51.000 Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Anthropic Claude 3.5 Sonnet 51K zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Anthropic Claude 3.5 Sonnet V2 18K Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Anthropic Claude 3.5 Sonnet V2 18K zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Anthropic Claude 3.5 Sonnet V2 200K Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Anthropic Claude 3.5 Sonnet V2 200K zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Anthropic Claude 3.5 Sonnet V2 51.000 Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Anthropic Claude 3.5 Sonnet V2 51K zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Anthropic Claude 3.7 V1.0 Sonnet 18K Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Anthropic Claude 3.7 V1.0 Sonnet 18K zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Anthropic Claude 3.7 V1.0 Sonnet 200K Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Anthropic Claude 3.7 V1.0 Sonnet 200K zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Anthropic Claude 3.7 V1.0 Sonnet 51K Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Anthropic Claude 3.7 V1.0 Sonnet 51K zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Anthropic Claude Instant V1 (100.000) Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Anthropic Claude Instant V1 100.000 zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Anthropic Claude V2 100.000 Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Anthropic Claude V2 100K zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Anthropic Claude V2 18K Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Anthropic Claude V2 18K zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Anthropic Claude V2.1 18K Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Anthropic Claude V2.1 18K zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Anthropic Claude V2.1 200K Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Anthropic Claude V2.1 200K zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Cohere Command Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Cohere Command zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Cohere Command Light Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Cohere Command Light zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Cohere Command R Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Cohere Command R 128k zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Cohere Command R Plus Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Cohere Command R Plus 128k zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Cohere Embed English Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Cohere Embed English zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Cohere Embed Multilingual Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Cohere Embed Multilingual zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Meta Llama 2 13B Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Meta Llama 2 13B zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Meta Llama 2 70B Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Meta Llama 2 70B zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Meta Llama 2 Chat 13B Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Meta Llama 2 Chat 13B zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Meta Llama 2 Chat 70B Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Meta Llama 2 Chat 70B zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Meta Llama 3 70B Instruct Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Meta Llama 3 70B Instruct zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Meta Llama 3 8B Instruct Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Meta Llama 3 8B Instruct zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Meta Llama 3.1 70B Instruct Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Meta Llama 3.1 70B Instruct zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Meta Llama 3.1 8B Instruct Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Meta Llama 3.1 8B Instruct zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Meta Llama 3.2 11B Instruct Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Meta Llama 3.2 11B Instruct zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Meta Llama 3.2 1B Instruct Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Meta Llama 3.2 1B Instruct zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Meta Llama 3.2 3B Instruct Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Meta Llama 3.2 3B Instruct zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Meta Llama 3.2 90B Instruct Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Meta Llama 3.2 90B Instruct zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Mistral Large 2407 Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Mistral Large 2407 zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Mistral Small Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Mistral Small zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für Stability.ai Stable Diffusion XL 0.8 Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Stability.ai Stable Diffusion XL 0.8 zugewiesen werden können
Modelleinheiten pro bereitgestelltem Modell für Stability.ai Stable Diffusion XL 1.0 Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für Stability.ai Stable Diffusion XL 1.0 zugewiesen werden können.
Modelleinheiten pro bereitgestelltem Modell für die Variante mit einer Kontextlänge von 128 KB für Amazon Nova Micro Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für die Variante mit einer Kontextlänge von 128 KB für Amazon Nova Micro zugewiesen werden können
Modelleinheiten pro bereitgestelltem Modell für die Variante mit 24.000 Kontextlänge für Amazon Nova Lite Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für die 24.000 Kontextlängen-Variante für Amazon Nova Lite zugewiesen werden können
Modelleinheiten pro bereitgestelltem Modell für die Variante mit 24.000 Kontextlänge für Amazon Nova Micro Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für die 24.000 Kontextlängen-Variante für Amazon Nova Micro zugewiesen werden können
Modelleinheiten pro bereitgestelltem Modell für die Variante mit 24.000 Kontextlänge für Amazon Nova Pro Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für die 24.000 Kontextlängen-Variante für Amazon Nova Pro zugewiesen werden können
Modelleinheiten pro bereitgestelltem Modell für die 300.000 Kontextlängen-Variante für Amazon Nova Lite Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für die 300.000 Kontextlängen-Variante für Amazon Nova Lite zugewiesen werden können
Modelleinheiten pro bereitgestelltem Modell für die 300.000 Kontextlängen-Variante für Amazon Nova Pro Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Modell für die 300.000 Kontextlängen-Variante für Amazon Nova Pro zugewiesen werden können.
Modelleinheiten mit Zusicherung für Provisioned Through, erstellt für Meta Llama 4 Scout 17B Instruct 10M Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Durchsatz zugewiesen werden können, der für Meta Llama 4 Scout 17B Instruct 10M mit Verpflichtung erstellt wurde.
Für Meta Llama 4 Scout 17B Instruct 128K erstellte Modelleinheiten für Provisioned Throughout Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Durchsatz zugewiesen werden können, wurde für Meta Llama 4 Scout 17B Instruct 128K mit Verbindlichkeit erstellt.
Modelleinheiten mit Zusicherung für Provisioned Throughout, erstellt für Meta Maverick 4 Scout 17B Instruct 128K Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem für Meta Llama 4 Maverick 17B Instruct 128K erstellten Provisioned Throughput zugewiesen werden können, mit Verbindlichkeit.
Modelleinheiten mit Verbindlichkeit für Provisioned Throughout, erstellt für Meta Maverick 4 Scout 17B Instruct 1M Jede unterstützte Region: 0 Ja Die maximale Anzahl von Modelleinheiten, die einem bereitgestellten Durchsatz zugewiesen werden können, der für Meta Llama 4 Maverick 17B Instruct 1M erstellt wurde, mit Verbindlichkeit.
Anzahl der Router mit benutzerdefinierten Eingabeaufforderungen pro Konto Jede unterstützte Region: 500 Nein Die maximale Anzahl von Routern für benutzerdefinierte Eingabeaufforderungen, die Sie pro Konto und Region erstellen können.
Bedarfsgesteuerte, latenzoptimierte Modellinferenzanforderungen pro Minute für Meta Llama 3.1 405B Instruct Jede unterstützte Region: 100 Nein Die maximale Anzahl latenzoptimierter On-Demand-Anfragen, die Sie innerhalb einer Minute zur Modellinferenz für Meta Llama 3.1 405B Instruct einreichen können. Das Kontingent berücksichtigt die Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Bedarfsgesteuerte, latenzoptimierte Modellinferenzanfragen pro Minute für Meta Llama 3.1 70B Instruct Jede unterstützte Region: 100 Nein Die maximale Anzahl latenzoptimierter On-Demand-Anfragen, die Sie innerhalb einer Minute zur Modellinferenz für Meta Llama 3.1 70B Instruct einreichen können. Das Kontingent berücksichtigt die Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Latenzoptimierte On-Demand-Modellinferenz-Token pro Minute für Meta Llama 3.1 405B Instruct Jede unterstützte Region: 40 000 Nein Die maximale Anzahl latenzoptimierter On-Demand-Token, die Sie innerhalb einer Minute zur Modellinferenz für Meta Llama 3.1 405B Instruct einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Latenzoptimierte On-Demand-Modellinferenz-Token pro Minute für Meta Llama 3.1 70B Instruct Jede unterstützte Region: 40 000 Nein Die maximale Anzahl latenzoptimierter On-Demand-Token, die Sie innerhalb einer Minute zur Modellinferenz für Meta Llama 3.1 70B Instruct einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
InvokeModel Gleichzeitige On-Demand-Anfragen für Amazon Nova Reel1.0 Jede unterstützte Region: 10 Nein Die maximale Anzahl gleichzeitiger Modellinferenzanfragen, die Sie für Amazon Nova Reel 1.0 einreichen können. Das Kontingent berücksichtigt die kombinierte Summe aus Converse, und ConverseStream. InvokeModel InvokeModelWithResponseStream
InvokeModel Gleichzeitige On-Demand-Anfragen für Amazon Nova Reel1.1 Jede unterstützte Region: 3 Nein Die maximale Anzahl gleichzeitiger Modellinferenzanfragen, die Sie für Amazon Nova Reel 1.1 einreichen können. Das Kontingent berücksichtigt die kombinierte Summe aus Converse, und ConverseStream. InvokeModel InvokeModelWithResponseStream
InvokeModel Gleichzeitige On-Demand-Anfragen für Amazon Nova Sonic Jede unterstützte Region: 20 Nein Die maximale Anzahl gleichzeitiger Anfragen, die Sie zur Modellinferenz für Amazon Nova Sonic einreichen können.
InvokeModel Gleichzeitige Anfragen auf Abruf für Twelve Labs Marengo Jede unterstützte Region: 30 Nein Die maximale Anzahl gleichzeitiger InvokeModel Anfragen, die Sie zur Modellinferenz für Twelve Labs Marengo einreichen können.
InvokeModel Gleichzeitige Anfragen auf Abruf für Twelve Labs Pegasus Jede unterstützte Region: 30 Nein Die maximale Anzahl gleichzeitiger InvokeModel Anfragen, die Sie zur Modellinferenz für Twelve Labs Pegasus einreichen können.
Latenzoptimierte Modellinferenzanfragen auf Abruf pro Minute für Anthropic Claude 3.5 Haiku Jede unterstützte Region: 100 Nein Die maximale Häufigkeit, mit der Sie Modellinferenz in einer Minute aufrufen können. Das Kontingent berücksichtigt die kombinierte Summe aus Converse ConverseStream, InvokeModel und InvokeModelWithResponseStream für Anthropic Claude 3.5 Haiku, sofern die Latenzoptimierung konfiguriert ist.
Latenzoptimierte Modellinferenz-Token pro Minute auf Abruf für Anthropic Claude 3.5 Haiku Jede unterstützte Region: 500 000 Nein Die maximale Anzahl von On-Demand-Token, die Sie in einer Minute zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens für alle Anfragen an Converse InvokeModel und InvokeModelWithResponseStream für Anthropic Claude 3.5 Haiku, sofern die Latenzoptimierung konfiguriert ist. ConverseStream
On-Demand-Modellinferenz und gleichzeitige Anfragen für Luma Ray V2 Jede unterstützte Region: 1 Nein Die maximale Anzahl gleichzeitiger Anfragen, die Sie zur Modellinferenz für Luma Ray V2 einreichen können. Das Kontingent berücksichtigt die kombinierte Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Bedarfsgesteuerte Modellinferenzanfragen pro Minute für AI21 Labs Jamba 1.5 Large Jede unterstützte Region: 100 Nein Die maximale Häufigkeit, mit der Sie Modellinferenz in einer Minute für AI21 Labs Jamba 1.5 Large aufrufen können. Das Kontingent berücksichtigt die kombinierte Summe der Anfragen für Converse und InvokeModel
On-Demand-Modellinferenzanfragen pro Minute für AI21 Labs Jamba 1.5 Mini Jede unterstützte Region: 100 Nein Die maximale Häufigkeit, mit der Sie Modellinferenz in einer Minute für AI21 Labs Jamba 1.5 Mini aufrufen können. Das Kontingent berücksichtigt die kombinierte Summe der Anfragen für Converse und InvokeModel
On-Demand-Modellinferenzanfragen pro Minute für AI21 Labs Jamba Instruct Jede unterstützte Region: 100 Nein Die maximale Häufigkeit, mit der Sie innerhalb einer Minute Modellinferenz für AI21 Labs Jamba Instruct aufrufen können. Das Kontingent berücksichtigt die kombinierte Summe der Anfragen für Converse und InvokeModel
Anfragen zur Modellinferenz auf Abruf pro Minute für AI21 Labs Jurassic-2 Mid Jede unterstützte Region: 400 Nein Die maximale Anzahl von Anrufen InvokeModel in einer Minute für Labs Jurassic-2 Mid AI21
Anfragen zur Modellinferenz auf Abruf pro Minute für Labs Jurassic-2 Ultra AI21 Jede unterstützte Region: 100 Nein Die maximale Anzahl von Anrufen InvokeModel in einer Minute für Labs Jurassic-2 Ultra AI21
On-Demand-Modellinferenzanfragen pro Minute für Amazon Nova Canvas Jede unterstützte Region: 100 Nein Die maximale Anzahl von Anfragen, die Sie in einer Minute für Amazon Nova Canvas zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe aus Converse ConverseStream, InvokeModel und. InvokeModelWithResponseStream
On-Demand-Modellinferenzanfragen pro Minute für Amazon Nova Lite

us-east-1: 1,000

eu-west-2:1.000

Jede der anderen unterstützten Regionen: 100

Nein Die maximale Anzahl von On-Demand-Anfragen, die Sie für Amazon Nova Lite innerhalb einer Minute zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe aus Converse ConverseStream, InvokeModel und. InvokeModelWithResponseStream
On-Demand-Modellinferenzanfragen pro Minute für Amazon Nova Micro

us-east-1: 1,000

eu-west-2:1.000

Jede der anderen unterstützten Regionen: 100

Nein Die maximale Anzahl von On-Demand-Anfragen, die Sie für Amazon Nova Micro innerhalb einer Minute zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe aus Converse ConverseStream, InvokeModel und. InvokeModelWithResponseStream
On-Demand-Modellinferenzanfragen pro Minute für Amazon Nova Pro

ap-southeast-2:50

ca-central-1:50

Jede der anderen unterstützten Regionen: 100

Nein Die maximale Anzahl von On-Demand-Anfragen, die Sie für Amazon Nova Pro innerhalb einer Minute zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die Summe aus Converse ConverseStream, InvokeModel und. InvokeModelWithResponseStream
On-Demand-Modellinferenzanfragen pro Minute für Amazon Rerank 1.0 Jede unterstützte Region: 200 Nein Die maximale Anzahl von Anrufen InvokeModel in einer Minute für Amazon Rerank 1.0.
On-Demand-Modellinferenzanfragen pro Minute für Amazon Titan Image Generator G1 Jede unterstützte Region: 60 Nein Die maximale Anzahl von Aufrufen InvokeModel in einer Minute für Amazon Titan Image Generator G1.
On-Demand-Modellinferenzanfragen pro Minute für Amazon Titan Image Generator G1 V2 Jede unterstützte Region: 60 Nein Die maximale Anzahl von On-Demand-Anfragen, die Sie innerhalb einer Minute zur Modellinferenz für Amazon Titan Image Generator G1 V2 einreichen können. Das Kontingent berücksichtigt die kombinierte Summe aus Converse, und ConverseStream. InvokeModel InvokeModelWithResponseStream
On-Demand-Modellinferenzanfragen pro Minute für Amazon Titan Multimodal Embeddings G1 Jede unterstützte Region: 2.000 Nein Die maximale Anzahl von Aufrufen InvokeModel in einer Minute für Amazon Titan Multimodal Embeddings G1.
On-Demand-Modellinferenzanfragen pro Minute für Amazon Titan Text Embeddings Jede unterstützte Region: 2.000 Nein Die maximale Anzahl von Anrufen InvokeModel in einer Minute für Amazon Titan Text Embeddings
On-Demand-Modellinferenzanfragen pro Minute für Amazon Titan Text Embeddings V2 Jede unterstützte Region: 2.000 Nein Die maximale Anzahl von Anrufen InvokeModel in einer Minute für Amazon Titan Text Embeddings V2
On-Demand-Modellinferenzanfragen pro Minute für Amazon Titan Text Express Jede unterstützte Region: 400 Nein Die maximale Häufigkeit, mit der Sie Modellinferenz in einer Minute aufrufen können. Das Kontingent berücksichtigt die kombinierte Summe von Converse ConverseStream, InvokeModel und InvokeModelWithResponseStream für Amazon Titan Text Express
On-Demand-Modellinferenzanfragen pro Minute für Amazon Titan Text Lite Jede unterstützte Region: 800 Nein Die maximale Häufigkeit, mit der Sie Modellinferenz in einer Minute aufrufen können. Das Kontingent berücksichtigt die kombinierte Summe von Converse ConverseStream, InvokeModel und InvokeModelWithResponseStream für Amazon Titan Text Lite
On-Demand-Modellinferenzanfragen pro Minute für Amazon Titan Text Premier Jede unterstützte Region: 100 Nein Die maximale Häufigkeit, mit der Sie Model-Inferenz in einer Minute aufrufen können. Das Kontingent berücksichtigt die kombinierte Summe von Converse ConverseStream, InvokeModel und InvokeModelWithResponseStream für Amazon Titan Text Premier
On-Demand-Modellinferenzanfragen pro Minute für Anthropic Claude 3 Haiku

us-east-1: 1,000

us-west-2: 1,000

ap-northeast-1:200

ap-southeast-1:200

Jede der anderen unterstützten Regionen: 400

Nein Die maximale Anzahl von Aufrufen von Model-Inferenz in einer Minute. Die Quote berücksichtigt die Summe aus Converse, ConverseStream, InvokeModel und InvokeModelWithResponseStream für Anthropic Claude 3 Haiku.
On-Demand-Modellinferenzanfragen pro Minute für Anthropic Claude 3 Opus Jede unterstützte Region: 50 Nein Die maximale Anzahl von On-Demand-Anfragen, die Sie innerhalb einer Minute zur Modellinferenz für Anthropic Claude 3 Opus einreichen können. Das Kontingent berücksichtigt die Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Bedarfsgesteuerte Modellinferenzanfragen pro Minute für Anthropic Claude 3 Sonnet

us-east-1: 500

us-west-2: 500

Jede der anderen unterstützten Regionen: 100

Nein Die maximale Häufigkeit, mit der Sie Modellinferenz in einer Minute aufrufen können. Die Quote berücksichtigt die Summe aus Converse, ConverseStream, InvokeModel und InvokeModelWithResponseStream für Anthropic Claude 3 Sonnet.
Bedarfsgesteuerte Modellinferenzanfragen pro Minute für Anthropic Claude 3.5 Haiku

us-west-1:400

Jede der anderen unterstützten Regionen: 1 000

Nein Die maximale Anzahl von On-Demand-Anfragen, die Sie für Anthropic Claude 3.5 Haiku innerhalb einer Minute zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Bedarfsgesteuerte Modellinferenzanfragen pro Minute für Anthropic Claude 3.5 Sonnet

us-east-1:50

us-east-2:50

US-West-2:250

ap-northeast-2:50

ap-south-1:50

ap-southeast-2:50

Jede der anderen unterstützten Regionen: 20

Nein Die maximale Häufigkeit, mit der Sie in einer Minute Modellinferenz für Anthropic Claude 3.5 Sonnet aufrufen können. Das Kontingent berücksichtigt die Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Bedarfsgesteuerte Modellinferenzanfragen pro Minute für Anthropic Claude 3.5 Sonnet V2

US-West-2:250

Jede der anderen unterstützten Regionen: 50

Nein Die maximale Häufigkeit, mit der Sie in einer Minute Modellinferenz für Anthropic Claude 3.5 Sonnet V2 aufrufen können. Das Kontingent berücksichtigt die Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Bedarfsgesteuerte Modellinferenzanfragen pro Minute für Anthropic Claude 3.7 Sonnet V1 Jede unterstützte Region: 125 Nein Die maximale Anzahl von On-Demand-Anfragen, die Sie für Anthropic Claude 3.7 Sonnet V1 innerhalb einer Minute zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Bedarfsgesteuerte Modellinferenzanfragen pro Minute für Anthropic Claude Instant

us-east-1: 1,000

us-west-2: 1,000

Jede der anderen unterstützten Regionen: 400

Nein Die maximale Anzahl von Aufrufen von Model-Inferenz in einer Minute. Die Quote berücksichtigt die Summe aus Converse, ConverseStream, InvokeModel und InvokeModelWithResponseStream für Anthropic Claude Instant
On-Demand-Modellinferenzanfragen pro Minute für Anthropic Claude V2

us-east-1: 500

us-west-2: 500

Jede der anderen unterstützten Regionen: 100

Nein Die maximale Häufigkeit, mit der Sie Modellinferenz in einer Minute aufrufen können. Die Quote berücksichtigt die Summe aus Converse, ConverseStream, InvokeModel und InvokeModelWithResponseStream für Anthropic Claude V2
On-Demand-Modellinferenzanfragen pro Minute für Cohere Command Jede unterstützte Region: 400 Nein Die maximale Häufigkeit, mit der Sie Model-Inferenz in einer Minute aufrufen können. Das Kontingent berücksichtigt die Summe aus Converse ConverseStream, InvokeModel und InvokeModelWithResponseStream für Cohere Command.
On-Demand-Modellinferenzanfragen pro Minute für Cohere Command Light Jede unterstützte Region: 800 Nein Die maximale Häufigkeit, mit der Sie Model-Inferenz in einer Minute aufrufen können. Das Kontingent berücksichtigt die Summe aus Converse ConverseStream, InvokeModel und InvokeModelWithResponseStream für Cohere Command Light.
On-Demand-Modellinferenzanfragen pro Minute für Cohere Command R Jede unterstützte Region: 400 Nein Die maximale Häufigkeit, mit der Sie Model-Inferenz in einer Minute aufrufen können. Die Quote berücksichtigt die kombinierte Summe von Converse ConverseStream, InvokeModel und InvokeModelWithResponseStream für Cohere Command R 128k.
On-Demand-Modellinferenzanfragen pro Minute für Cohere Command R Plus Jede unterstützte Region: 400 Nein Die maximale Häufigkeit, mit der Sie Model-Inferenz in einer Minute aufrufen können. Das Kontingent berücksichtigt die kombinierte Summe von Converse InvokeModel und InvokeModelWithResponseStream für Cohere Command R Plus 128k. ConverseStream
On-Demand-Modellinferenzanfragen pro Minute für Cohere Embed English Jede unterstützte Region: 2.000 Nein Die maximale Anzahl von Anrufen InvokeModel in einer Minute für Cohere Embed English.
On-Demand-Modellinferenzanfragen pro Minute für Cohere Embed Multilingual Jede unterstützte Region: 2.000 Nein Die maximale Anzahl von Anrufen InvokeModel in einer Minute für Cohere Embed Multilingual.
On-Demand-Modellinferenzanfragen pro Minute für Cohere Rerank 3.5 Jede unterstützte Region: 250 Nein Die maximale Anzahl von Anrufen InvokeModel in einer Minute für Cohere Rerank 3.5.
Bedarfsgesteuerte Modellinferenzanfragen pro Minute für Meta Llama 2 13B Jede unterstützte Region: 800 Nein Die maximale Häufigkeit, mit der Sie Modellinferenz in einer Minute aufrufen können. Das Kontingent berücksichtigt die Summe aus Converse, ConverseStream, InvokeModel und InvokeModelWithResponseStream für Meta Llama 2 13B.
On-Demand-Modellinferenzanfragen pro Minute für Meta Llama 2 70B Jede unterstützte Region: 400 Nein Die maximale Häufigkeit, mit der Sie Modellinferenz in einer Minute aufrufen können. Das Kontingent berücksichtigt die Summe aus Converse, ConverseStream, InvokeModel und InvokeModelWithResponseStream für Meta Llama 2 70B.
On-Demand-Modellinferenzanfragen pro Minute für Meta Llama 2 Chat 13B Jede unterstützte Region: 800 Nein Die maximale Häufigkeit, mit der Sie Modellinferenz in einer Minute aufrufen können. Das Kontingent berücksichtigt die Summe aus Converse, ConverseStream, InvokeModel und InvokeModelWithResponseStream für Meta Llama 2 Chat 13B.
On-Demand-Modellinferenzanfragen pro Minute für Meta Llama 2 Chat 70B Jede unterstützte Region: 400 Nein Die maximale Häufigkeit, mit der Sie Modellinferenz in einer Minute aufrufen können. Das Kontingent berücksichtigt die Summe aus Converse, ConverseStream, InvokeModel und InvokeModelWithResponseStream für Meta Llama 2 Chat 70B.
On-Demand-Modellinferenzanfragen pro Minute für Meta Llama 3 70B Instruct Jede unterstützte Region: 400 Nein Die maximale Anzahl von On-Demand-Anfragen, die Sie innerhalb einer Minute zur Modellinferenz für Meta Llama 3 70B Instruct einreichen können. Das Kontingent berücksichtigt die Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
On-Demand-Modellinferenzanfragen pro Minute für Meta Llama 3 8B Instruct Jede unterstützte Region: 800 Nein Die maximale Anzahl von On-Demand-Anfragen, die Sie innerhalb einer Minute zur Modellinferenz für Meta Llama 3 8B Instruct einreichen können. Das Kontingent berücksichtigt die Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
On-Demand-Modellinferenzanfragen pro Minute für Meta Llama 3.1 405B Instruct Jede unterstützte Region: 200 Nein Die maximale Anzahl von On-Demand-Anfragen, die Sie innerhalb einer Minute zur Modellinferenz für Meta Llama 3.1 405B Instruct einreichen können. Das Kontingent berücksichtigt die Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
On-Demand-Modellinferenzanfragen pro Minute für Meta Llama 3.1 70B Instruct Jede unterstützte Region: 400 Nein Die maximale Anzahl von On-Demand-Anfragen, die Sie innerhalb einer Minute zur Modellinferenz für Meta Llama 3.1 70B Instruct einreichen können. Das Kontingent berücksichtigt die Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
On-Demand-Modellinferenzanfragen pro Minute für Meta Llama 3.1 8B Instruct Jede unterstützte Region: 800 Nein Die maximale Anzahl von On-Demand-Anfragen, die Sie innerhalb einer Minute zur Modellinferenz für Meta Llama 3.1 8B Instruct einreichen können. Das Kontingent berücksichtigt die Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
On-Demand-Modellinferenzanfragen pro Minute für Meta Llama 3.2 11B Instruct Jede unterstützte Region: 400 Nein Die maximale Häufigkeit, mit der Sie Modellinferenz in einer Minute für Meta Llama 3.2 11B Instruct aufrufen können. Das Kontingent berücksichtigt die kombinierte Summe der Anfragen für InvokeModel, InvokeModelWithResponseStream, Converse und. ConverseStream
On-Demand-Modellinferenzanfragen pro Minute für Meta Llama 3.2 1B Instruct Jede unterstützte Region: 800 Nein Die maximale Anzahl von On-Demand-Anfragen, die Sie innerhalb einer Minute zur Modellinferenz für Meta Llama 3.2 1B Instruct einreichen können. Das Kontingent berücksichtigt die Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
On-Demand-Modellinferenzanfragen pro Minute für Meta Llama 3.2 3B Instruct Jede unterstützte Region: 800 Nein Die maximale Häufigkeit, mit der Sie Modellinferenz in einer Minute für Meta Llama 3.2 3B Instruct aufrufen können. Das Kontingent berücksichtigt die kombinierte Summe der Anfragen für InvokeModel, InvokeModelWithResponseStream, Converse und. ConverseStream
On-Demand-Modellinferenzanfragen pro Minute für Meta Llama 3.2 90B Instruct Jede unterstützte Region: 400 Nein Die maximale Häufigkeit, mit der Sie Modellinferenz in einer Minute für Meta Llama 3.2 90B Instruct aufrufen können. Das Kontingent berücksichtigt die kombinierte Summe der Anfragen für InvokeModel, InvokeModelWithResponseStream, Converse und. ConverseStream
On-Demand-Modellinferenzanfragen pro Minute für Meta Llama 3.3 70B Instruct Jede unterstützte Region: 400 Nein Die maximale Anzahl von On-Demand-Anfragen, die Sie innerhalb einer Minute zur Modellinferenz für Meta Llama 3.3 70B Instruct einreichen können. Das Kontingent berücksichtigt die Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
On-Demand-Modellinferenzanfragen pro Minute für Mistral 7B Instruct Jede unterstützte Region: 800 Nein Die maximale Anzahl von Anrufen InvokeModel in einer Minute für Mistral Mistral-7 0 b-instruct-v
On-Demand-Modellinferenzanfragen pro Minute für Mistral AI Mistral Small Jede unterstützte Region: 400 Nein Die maximale Anzahl von Anrufen InvokeModelWithResponseStream in einer Minute für Mistral InvokeModel AI Mistral Small
On-Demand-Modellinferenzanfragen pro Minute für Mistral Large Jede unterstützte Region: 400 Nein Die maximale Anzahl von Anrufen InvokeModelWithResponseStream in einer Minute für Mistral InvokeModel Mistral-Large-2402-v1
On-Demand-Modellinferenzanfragen pro Minute für Mistral Large 2407 Jede unterstützte Region: 400 Nein Die maximale Häufigkeit, mit der Sie Modellinferenz in einer Minute für Mistral Large 2407 aufrufen können. Das Kontingent berücksichtigt die kombinierte Summe der Anfragen für InvokeModel,, Converse und InvokeModelWithResponseStream ConverseStream
On-Demand-Modellinferenzanfragen pro Minute für Mistral Mixtral 8x7b Instruct Jede unterstützte Region: 400 Nein Die maximale Anzahl von Anrufen in einer Minute für Mistral Mixtral-8x7b-v0 InvokeModel
On-Demand-Modellinferenzanfragen pro Minute für OpenAI GPT OSS 120B Jede unterstützte Region: 250 Nein Die maximale Anzahl von On-Demand-Anfragen, die Sie in einer Minute zur Modellinferenz für OpenAI GPT OSS 120B einreichen können. Das Kontingent berücksichtigt die kombinierte Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
On-Demand-Modellinferenzanfragen pro Minute für OpenAI GPT OSS 20B Jede unterstützte Region: 250 Nein Die maximale Anzahl von On-Demand-Anfragen, die Sie in einer Minute zur Modellinferenz für OpenAI GPT OSS 20B einreichen können. Das Kontingent berücksichtigt die kombinierte Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Bedarfsgesteuerte Modellinferenzanfragen pro Minute für Stability.ai Stable Diffusion 3 Large Jede unterstützte Region: 15 Nein Die maximale Anzahl von Aufrufen InvokeModel in einer Minute für Stability.ai Stable Diffusion 3 Large.
Bedarfsgesteuerte Modellinferenzanfragen pro Minute für Stability.ai Stable Diffusion 3 Medium Jede unterstützte Region: 60 Nein Die maximale Anzahl von Aufrufen InvokeModel in einer Minute für Stability.ai Stable Diffusion 3 Medium
Bedarfsgesteuerte Modellinferenzanfragen pro Minute für Stability.ai Stable Diffusion 3.5 Large Jede unterstützte Region: 15 Nein Die maximale Anzahl von Aufrufen InvokeModel in einer Minute für Stability.ai Stable Diffusion 3.5 Large.
Bedarfsgesteuerte Modellinferenzanfragen pro Minute für Stability.ai Stable Diffusion XL 0.8 Jede unterstützte Region: 60 Nein Die maximale Anzahl von Aufrufen InvokeModel in einer Minute für Stability.ai Stable Diffusion XL 0.8
Bedarfsgesteuerte Modellinferenzanfragen pro Minute für Stability.ai Stable Diffusion XL 1.0 Jede unterstützte Region: 60 Nein Die maximale Anzahl von Aufrufen InvokeModel in einer Minute für Stability.ai Stable Diffusion XL 1.0
Bedarfsgesteuerte Modellinferenzanfragen pro Minute für Stability.ai Stable Image Core Jede unterstützte Region: 90 Nein Die maximale Anzahl von Aufrufen InvokeModel in einer Minute für Stability.ai Stable Image Core.
Bedarfsgesteuerte Modellinferenzanfragen pro Minute für Stability.ai Stable Image Ultra Jede unterstützte Region: 10 Nein Die maximale Anzahl von Aufrufen InvokeModel in einer Minute für Stability.ai Stable Image Ultra.
On-Demand-Modellinferenzanfragen pro Minute für Twelve Labs Pegasus Jede unterstützte Region: 60 Nein Die maximale Anzahl von On-Demand-Anfragen, die Sie innerhalb einer Minute zur Modellinferenz für Twelve Labs Pegasus einreichen können. Das Kontingent berücksichtigt die kombinierte Summe aus Converse, und ConverseStream. InvokeModel InvokeModelWithResponseStream
Modellinferenz-Token pro Minute auf Abruf für AI21 Labs Jamba 1.5 Large Jede unterstützte Region: 300 000 Nein Die maximale Anzahl von Token, die Sie in einer Minute für AI21 Labs Jamba 1.5 Large zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse und. InvokeModel
Modellinferenz-Token pro Minute auf Abruf für AI21 Labs Jamba 1.5 Mini Jede unterstützte Region: 300 000 Nein Die maximale Anzahl von Tokens, die Sie für AI21 Labs Jamba 1.5 Mini innerhalb einer Minute zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse und. InvokeModel
Modellinferenz-Token pro Minute auf Abruf für AI21 Labs Jamba Instruct Jede unterstützte Region: 300 000 Nein Die maximale Anzahl von Tokens, die Sie innerhalb einer Minute zur Modellinferenz für Labs Jamba Instruct einreichen können. AI21 Die Quote berücksichtigt die kombinierte Summe der Token für Converse und InvokeModel
Modellinferenz-Token pro Minute auf Abruf für AI21 Labs Jurassic-2 Mid Jede unterstützte Region: 300 000 Nein Die maximale Häufigkeit, mit der Sie Modellinferenz in einer Minute aufrufen können. Das Kontingent berücksichtigt die Summe aus Converse ConverseStream, InvokeModel und InvokeModelWithResponseStream für AI21 Labs Jurassic-2 Mid.
Modellinferenz-Token auf Abruf pro Minute für Labs Jurassic-2 Ultra AI21 Jede unterstützte Region: 300 000 Nein Die maximale Häufigkeit, mit der Sie Modellinferenz in einer Minute aufrufen können. Das Kontingent berücksichtigt die Summe aus Converse ConverseStream, InvokeModel und InvokeModelWithResponseStream für AI21 Labs Jurassic-2 Ultra.
On-Demand-Modellinferenz-Token pro Minute für Amazon Nova Lite

us-east-1:2.000.000

eu-west-2:2.000.000

Jede der anderen unterstützten Regionen: 100 000

Nein Die maximale Anzahl von On-Demand-Token, die Sie innerhalb einer Minute für Amazon Nova Lite zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse ConverseStream, InvokeModel und. InvokeModelWithResponseStream
On-Demand-Modellinferenz-Token pro Minute für Amazon Nova Micro

us-east-1:2.000.000

eu-west-2:2.000.000

Jede der anderen unterstützten Regionen: 100 000

Nein Die maximale Anzahl von On-Demand-Token, die Sie innerhalb einer Minute für Amazon Nova Micro zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse ConverseStream, InvokeModel und. InvokeModelWithResponseStream
On-Demand-Modellinferenz-Token pro Minute für Amazon Nova Pro

ap-southeast-2:100.000

ca-central-1:100.000

Jede der anderen unterstützten Regionen: 400.000

Nein Die maximale Anzahl von On-Demand-Token, die Sie innerhalb einer Minute für Amazon Nova Pro zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse ConverseStream, InvokeModel und. InvokeModelWithResponseStream
On-Demand-Modellinferenz-Token pro Minute für Amazon Titan Image Generator G1 Jede unterstützte Region: 2.000 Nein Die maximale Anzahl von Token, die Sie InvokeModel in einer Minute für Amazon Titan Image Generator G1 bereitstellen können.
On-Demand-Modellinferenz-Token pro Minute für Amazon Titan Image Generator G1 V2 Jede unterstützte Region: 2.000 Nein Die maximale Anzahl von On-Demand-Token, die Sie innerhalb einer Minute zur Modellinferenz für Amazon Titan Image Generator G1 V2 einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, ConverseStream und. InvokeModel InvokeModelWithResponseStream
On-Demand-Modellinferenz-Token pro Minute für Amazon Titan Multimodal Embeddings G1 Jede unterstützte Region: 300 000 Nein Die maximale Anzahl von Token, die Sie InvokeModel in einer Minute für Amazon Titan Multimodal Embeddings G1 bereitstellen können.
On-Demand-Modellinferenz-Token pro Minute für Amazon Titan Text Embeddings Jede unterstützte Region: 300 000 Nein Die maximale Anzahl von Token, die Sie InvokeModel in einer Minute für Amazon Titan Text Embeddings bereitstellen können.
On-Demand-Modellinferenz-Token pro Minute für Amazon Titan Text Embeddings V2 Jede unterstützte Region: 300 000 Nein Die maximale Anzahl von Token, die Sie InvokeModel in einer Minute für Amazon Titan Text Embeddings V2 bereitstellen können.
On-Demand-Modellinferenz-Token pro Minute für Amazon Titan Text Express Jede unterstützte Region: 300 000 Nein Die maximale Anzahl von On-Demand-Token, die Sie in einer Minute zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse InvokeModel und InvokeModelWithResponseStream für Amazon Titan Text Express. ConverseStream
On-Demand-Modellinferenz-Token pro Minute für Amazon Titan Text Lite Jede unterstützte Region: 300 000 Nein Die maximale Anzahl von On-Demand-Token, die Sie in einer Minute zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse InvokeModel und InvokeModelWithResponseStream für Amazon Titan Text Lite. ConverseStream
On-Demand-Modellinferenz-Token pro Minute für Amazon Titan Text Premier Jede unterstützte Region: 300 000 Nein Die maximale Anzahl von On-Demand-Token, die Sie in einer Minute zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse InvokeModel und InvokeModelWithResponseStream für Amazon Titan Text Premier. ConverseStream
On-Demand-Modell-Inferenz-Token pro Minute für Anthropic Claude 3 Haiku

us-east-1:2.000.000

us-west-2:2.000.000

ap-northeast-1:200.000

ap-southeast-1:200.000

Jede der anderen unterstützten Regionen: 300.000

Nein Die maximale Anzahl von On-Demand-Token, die Sie innerhalb einer Minute zur Modellinferenz einreichen können. Die Quote berücksichtigt die Summe der Eingabe- und Ausgabetoken aller Anfragen an Converse InvokeModel und InvokeModelWithResponseStream für Anthropic Claude 3 Haiku. ConverseStream
On-Demand-Modell-Inferenz-Token pro Minute für Anthropic Claude 3 Opus Jede unterstützte Region: 400 000 Nein Die maximale Anzahl von On-Demand-Token, die Sie innerhalb einer Minute zur Modellinferenz für Anthropic Claude 3 Opus einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
On-Demand-Modell-Inferenz-Token pro Minute für Anthropic Claude 3 Sonnet

us-east-1:1.000.000

us-west-2:1.000.000

Jede der anderen unterstützten Regionen: 200.000

Nein Die maximale Anzahl von On-Demand-Token, die Sie innerhalb einer Minute zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse InvokeModel und InvokeModelWithResponseStream für Anthropic Claude 3 Sonnet. ConverseStream
On-Demand-Modell-Inferenz-Token pro Minute für Anthropic Claude 3.5 Haiku

us-west-1:300.000

Jede der anderen unterstützten Regionen: 2.000.000

Nein Die maximale Anzahl von On-Demand-Token, die Sie innerhalb einer Minute zur Modellinferenz für Anthropic Claude 3.5 Haiku einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Modellinferenz-Token pro Minute auf Abruf für Anthropic Claude 3.5 Sonnet

us-east-1:400.000

us-east-2:400.000

us-west-2:2.000.000

ap-northeast-2:400.000

ap-south-1:400.000

ap-southeast-2:400.000

Jede der anderen unterstützten Regionen: 200.000

Nein Die maximale Anzahl von Tokens, die Sie in einer Minute für Anthropic Claude 3.5 Sonnet zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Modellinferenz-Token pro Minute auf Abruf für Anthropic Claude 3.5 Sonnet V2

us-west-2:2.000.000

Jede der anderen unterstützten Regionen: 400.000

Nein Die maximale Anzahl von Tokens, die Sie in einer Minute für Anthropic Claude 3.5 Sonnet V2 zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die Summe aus Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Modellinferenz-Token pro Minute auf Abruf für Anthropic Claude 3.7 Sonnet V1 Jede unterstützte Region: 500 000 Nein Die maximale Anzahl von On-Demand-Token, die Sie innerhalb einer Minute zur Modellinferenz für Anthropic Claude 3.7 Sonnet V1 einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Modellinferenz-Token pro Minute auf Abruf für Anthropic Claude Instant

us-east-1:1.000.000

us-west-2:1.000.000

Jede der anderen unterstützten Regionen: 300.000

Nein Die maximale Anzahl von On-Demand-Token, die Sie innerhalb einer Minute zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse InvokeModel und InvokeModelWithResponseStream für Anthropic Claude Instant. ConverseStream
Modell-Inferenz-Token pro Minute auf Abruf für Anthropic Claude V2

us-east-1: 500 000

us-west-2: 500 000

Jede der anderen unterstützten Regionen: 200.000

Nein Die maximale Anzahl von On-Demand-Token, die Sie innerhalb einer Minute zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse InvokeModel und InvokeModelWithResponseStream für Anthropic Claude V2. ConverseStream
Modellinferenz-Token pro Minute auf Abruf für Cohere Command Jede unterstützte Region: 300 000 Nein Die maximale Anzahl von On-Demand-Token, die Sie in einer Minute zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse InvokeModel und InvokeModelWithResponseStream für Cohere Command. ConverseStream
Modellinferenz-Token pro Minute auf Abruf für Cohere Command Light Jede unterstützte Region: 300 000 Nein Die maximale Häufigkeit, mit der Sie Modellinferenz in einer Minute aufrufen können. Das Kontingent berücksichtigt die Summe aus Converse ConverseStream, InvokeModel und InvokeModelWithResponseStream für Cohere Command Light.
On-Demand-Modellinferenz-Token pro Minute für Cohere Command R Jede unterstützte Region: 300 000 Nein Die maximale Anzahl von On-Demand-Token, die Sie in einer Minute zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens für alle Anfragen an Converse InvokeModel und InvokeModelWithResponseStream für Cohere Command R 128k. ConverseStream
On-Demand-Modellinferenz-Token pro Minute für Cohere Command R Plus Jede unterstützte Region: 300 000 Nein Die maximale Anzahl von On-Demand-Token, die Sie in einer Minute zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens für alle Anfragen an Converse InvokeModel und InvokeModelWithResponseStream für Cohere Command R Plus 128k. ConverseStream
Modellinferenz-Token auf Abruf pro Minute für Cohere Embed English Jede unterstützte Region: 300 000 Nein Die maximale Anzahl von Tokens, die Sie InvokeModel in einer Minute für Cohere Embed English bereitstellen können.
Modellinferenz-Token pro Minute auf Abruf für Cohere Embed Multilingual Jede unterstützte Region: 300 000 Nein Die maximale Anzahl von Tokens, die Sie InvokeModel in einer Minute für Cohere Embed Multilingual bereitstellen können.
Modellinferenz-Token pro Minute auf Abruf für Meta Llama 2 13B Jede unterstützte Region: 300 000 Nein Die maximale Anzahl von On-Demand-Token, die Sie in einer Minute zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse InvokeModel und InvokeModelWithResponseStream für Meta Llama 2 13B. ConverseStream
On-Demand-Modell-Inferenz-Token pro Minute für Meta Llama 2 70B Jede unterstützte Region: 300 000 Nein Die maximale Anzahl von On-Demand-Token, die Sie innerhalb einer Minute zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse InvokeModel und InvokeModelWithResponseStream für Meta Llama 2 70B. ConverseStream
On-Demand-Modell-Inferenz-Token pro Minute für Meta Llama 2 Chat 13B Jede unterstützte Region: 300 000 Nein Die maximale Anzahl von On-Demand-Token, die Sie innerhalb einer Minute zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse InvokeModel und InvokeModelWithResponseStream für Meta Llama 2 Chat 13B. ConverseStream
On-Demand-Modell-Inferenz-Token pro Minute für Meta Llama 2 Chat 70B Jede unterstützte Region: 300 000 Nein Die maximale Anzahl von On-Demand-Token, die Sie innerhalb einer Minute zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse InvokeModel und InvokeModelWithResponseStream für Meta Llama 2 Chat 70B. ConverseStream
On-Demand-Modell-Inferenz-Token pro Minute für Meta Llama 3 70B Instruct Jede unterstützte Region: 300 000 Nein Die maximale Anzahl von On-Demand-Token, die Sie innerhalb einer Minute zur Modellinferenz für Meta Llama 3 70B Instruct einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Modellinferenz-Token pro Minute auf Abruf für Meta Llama 3 8B Instruct Jede unterstützte Region: 300 000 Nein Die maximale Anzahl von On-Demand-Token, die Sie innerhalb einer Minute zur Modellinferenz für Meta Llama 3 8B Instruct einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Modellinferenz-Token pro Minute auf Abruf für Meta Llama 3.1 405B Instruct Jede unterstützte Region: 400 000 Nein Die maximale Anzahl von On-Demand-Token, die Sie innerhalb einer Minute zur Modellinferenz für Meta Llama 3.1 405B Instruct einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Modellinferenz-Token pro Minute auf Abruf für Meta Llama 3.1 70B Instruct Jede unterstützte Region: 300 000 Nein Die maximale Anzahl von On-Demand-Token, die Sie innerhalb einer Minute zur Modellinferenz für Meta Llama 3.1 70B Instruct einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Modellinferenz-Token pro Minute auf Abruf für Meta Llama 3.1 8B Instruct Jede unterstützte Region: 300 000 Nein Die maximale Anzahl von On-Demand-Token, die Sie innerhalb einer Minute zur Modellinferenz für Meta Llama 3.1 8B Instruct einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Modellinferenz-Token pro Minute auf Abruf für Meta Llama 3.2 11B Instruct Jede unterstützte Region: 300 000 Nein Die maximale Anzahl von Tokens, die Sie innerhalb einer Minute zur Modellinferenz für Meta Llama 3.2 11B Instruct einreichen können. Die Quote berücksichtigt die kombinierte Summe der Tokens für InvokeModel, InvokeModelWithResponseStream, Converse und. ConverseStream
Modellinferenz-Token pro Minute auf Abruf für Meta Llama 3.2 1B Instruct Jede unterstützte Region: 300 000 Nein Die maximale Anzahl von On-Demand-Token, die Sie innerhalb einer Minute zur Modellinferenz für Meta Llama 3.2 1B Instruct einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Modellinferenz-Token pro Minute auf Abruf für Meta Llama 3.2 3B Instruct Jede unterstützte Region: 300 000 Nein Die maximale Anzahl von Tokens, die Sie innerhalb einer Minute zur Modellinferenz für Meta Llama 3.2 3B Instruct einreichen können. Die Quote berücksichtigt die kombinierte Summe der Tokens für InvokeModel, InvokeModelWithResponseStream, Converse und. ConverseStream
Modellinferenz-Token pro Minute auf Abruf für Meta Llama 3.2 90B Instruct Jede unterstützte Region: 300 000 Nein Die maximale Anzahl von Tokens, die Sie innerhalb einer Minute zur Modellinferenz für Meta Llama 3.2 90B Instruct einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Token für InvokeModel, InvokeModelWithResponseStream, Converse und. ConverseStream
Modellinferenz-Token pro Minute auf Abruf für Meta Llama 3.3 70B Instruct Jede unterstützte Region: 300 000 Nein Die maximale Anzahl von On-Demand-Token, die Sie innerhalb einer Minute zur Modellinferenz für Meta Llama 3.3 70B Instruct einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Modellinferenz-Token pro Minute auf Abruf für Mistral AI Mistral 7B Instruct Jede unterstützte Region: 300 000 Nein Die maximale Anzahl von On-Demand-Token, die Sie in einer Minute zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse InvokeModel und InvokeModelWithResponseStream für Mistral AI Mistral 7B Instruct. ConverseStream
On-Demand-Modellinferenz-Token pro Minute für Mistral AI Mistral Large Jede unterstützte Region: 300 000 Nein Die maximale Anzahl von On-Demand-Token, die Sie innerhalb einer Minute zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse InvokeModel und InvokeModelWithResponseStream für Mistral AI Mistral Large. ConverseStream
On-Demand-Modell-Inferenz-Token pro Minute für Mistral AI Mistral Small Jede unterstützte Region: 300 000 Nein Die maximale Anzahl von On-Demand-Token, die Sie in einer Minute zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse InvokeModel und InvokeModelWithResponseStream für Mistral AI Mistral Small. ConverseStream
On-Demand-Modellinferenz-Token pro Minute für Mistral AI Mixtral 8X7BB Instruct Jede unterstützte Region: 300 000 Nein Die maximale Anzahl von On-Demand-Token, die Sie in einer Minute zur Modellinferenz einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse InvokeModel und InvokeModelWithResponseStream für Mistral AI Mixtral 8X7B Instruct. ConverseStream
On-Demand-Modell-Inferenz-Token pro Minute für Mistral Large 2407 Jede unterstützte Region: 300 000 Nein Die maximale Anzahl von Tokens, die Sie innerhalb einer Minute zur Modellinferenz für Mistral Large 2407 einreichen können. Die Quote berücksichtigt die kombinierte Summe der Tokens für InvokeModel,, Converse und InvokeModelWithResponseStream ConverseStream
On-Demand-Modell-Inferenz-Token pro Minute für OpenAI GPT OSS 120B Jede unterstützte Region: 1 000 000 Nein Die maximale Anzahl von On-Demand-Token, die Sie in einer Minute zur Modellinferenz für OpenAI GPT OSS 120B einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
On-Demand-Modell-Inferenz-Token pro Minute für OpenAI GPT OSS 20B Jede unterstützte Region: 1 000 000 Nein Die maximale Anzahl von On-Demand-Token, die Sie in einer Minute zur Modellinferenz für OpenAI GPT OSS 20B einreichen können. Das Kontingent berücksichtigt die kombinierte Summe der Eingabe- und Ausgabetokens aller Anfragen an Converse, und. ConverseStream InvokeModel InvokeModelWithResponseStream
Parameter pro Funktion Jede unterstützte Region: 5 Yes (Ja) Die maximale Anzahl von Parametern, die Sie in einer Aktionsgruppenfunktion haben können.
PrepareAgent Anfragen pro Sekunde Jede unterstützte Region: 2 Nein Die maximale Anzahl von PrepareAgent API-Anfragen pro Sekunde.
Datensätze pro Batch-Inferenzauftrag für Amazon Nova Premier Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Amazon Nova Premier.
Datensätze pro Batch-Inferenzauftrag für Claude 3 Haiku Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Claude-3-Haiku.
Datensätze pro Batch-Inferenzauftrag für Claude 3 Opus Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Claude 3 Opus.
Datensätze pro Batch-Inferenzauftrag für Claude 3 Sonnet Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Claude 3 Sonnet.
Datensätze pro Batch-Inferenzauftrag für Claude 3.5 Haiku Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Claude 3.5 Haiku.
Datensätze pro Batch-Inferenzauftrag für Claude 3.5 Sonnet Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Claude 3.5 Sonnet.
Datensätze pro Batch-Inferenzauftrag für Claude 3.5 Sonnet v2 Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Claude 3.5 Sonnet v2.
Datensätze pro Batch-Inferenzauftrag für Llama 3.1 405B Instruct Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Llama 3.1 405B Instruct.
Datensätze pro Batch-Inferenzjob für Llama 3.1 70B Instruct Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Llama 3.1 70B Instruct.
Datensätze pro Batch-Inferenzjob für Llama 3.1 8B Instruct Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Llama 3.1 8B Instruct.
Datensätze pro Batch-Inferenzjob für Llama 3.2 11B Instruct Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Llama 3.2 11B Instruct.
Datensätze pro Batch-Inferenzjob für Llama 3.2 1B Instruct Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob Llama 3.2 1B Instruct.
Datensätze pro Batch-Inferenzjob für Llama 3.2 3B Instruct Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Llama 3.2 3B Instruct.
Datensätze pro Batch-Inferenzjob für Llama 3.2 90B Instruct Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Llama 3.2 90B Instruct.
Datensätze pro Batch-Inferenzjob für Llama 3.3 70B Instruct Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Llama 3.3 70B Instruct.
Datensätze pro Batch-Inferenzjob für Llama 4 Maverick Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Llama 4 Maverick.
Datensätze pro Batch-Inferenzjob für Llama 4 Scout Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Llama 4 Scout.
Datensätze pro Batch-Inferenzjob für Mistral Large 2 (24.07) Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Mistral Large 2 (24.07).
Datensätze pro Batch-Inferenzauftrag für Mistral Small Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Mistral Small.
Datensätze pro Batch-Inferenzjob für Nova Lite V1 Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Nova Lite V1.
Datensätze pro Batch-Inferenzjob für Nova Micro V1 Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Nova Micro V1.
Datensätze pro Batch-Inferenzjob für Nova Pro V1 Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Nova Pro V1.
Datensätze pro Batch-Inferenzjob für Titan Multimodal Embeddings G1 Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Titan Multimodal Embeddings G1.
Datensätze pro Batch-Inferenzjob für Titan Text Embeddings V2 Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in allen Eingabedateien in einem Batch-Inferenzjob für Titan Text Embeddings V2.
Datensätze pro Eingabedatei pro Batch-Inferenzauftrag für Amazon Nova Premier Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in einer Eingabedatei in einem Batch-Inferenzjob für Amazon Nova Premier.
Datensätze pro Eingabedatei pro Batch-Inferenzjob für Claude 3 Haiku Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in einer Eingabedatei in einem Batch-Inferenzjob für Claude-3-Haiku.
Datensätze pro Eingabedatei pro Batch-Inferenzjob für Claude 3 Opus Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in einer Eingabedatei in einem Batch-Inferenzjob für Claude 3 Opus.
Datensätze pro Eingabedatei pro Batch-Inferenzjob für Claude 3 Sonnet Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in einer Eingabedatei in einem Batch-Inferenzjob für Claude 3 Sonnet.
Datensätze pro Eingabedatei pro Batch-Inferenzjob für Claude 3.5 Haiku Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in einer Eingabedatei in einem Batch-Inferenzjob für Claude 3.5 Haiku.
Datensätze pro Eingabedatei pro Batch-Inferenzauftrag für Claude 3.5 Sonnet Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in einer Eingabedatei in einem Batch-Inferenzjob für Claude 3.5 Sonnet.
Datensätze pro Eingabedatei pro Batch-Inferenzjob für Claude 3.5 Sonnet v2 Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in einer Eingabedatei in einem Batch-Inferenzjob für Claude 3.5 Sonnet v2.
Datensätze pro Eingabedatei pro Batch-Inferenzjob für Llama 3.1 405B Instruct Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in einer Eingabedatei in einem Batch-Inferenzjob für Llama 3.1 405B Instruct.
Datensätze pro Eingabedatei pro Batch-Inferenzjob für Llama 3.1 70B Instruct Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in einer Eingabedatei in einem Batch-Inferenzjob für Llama 3.1 70B Instruct.
Datensätze pro Eingabedatei pro Batch-Inferenzjob für Llama 3.1 8B Instruct Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in einer Eingabedatei in einem Batch-Inferenzjob für Llama 3.1 8B Instruct.
Datensätze pro Eingabedatei pro Batch-Inferenzjob für Llama 3.2 11B Instruct Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in einer Eingabedatei in einem Batch-Inferenzjob für Llama 3.2 11B Instruct.
Datensätze pro Eingabedatei pro Batch-Inferenzjob für Llama 3.2 1B Instruct Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in einer Eingabedatei in einem Batch-Inferenzjob Llama 3.2 1B Instruct.
Datensätze pro Eingabedatei pro Batch-Inferenzjob für Llama 3.2 3B Instruct Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in einer Eingabedatei in einem Batch-Inferenzjob für Llama 3.2 3B Instruct.
Datensätze pro Eingabedatei pro Batch-Inferenzjob für Llama 3.2 90B Instruct Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in einer Eingabedatei in einem Batch-Inferenzjob für Llama 3.2 90B Instruct.
Datensätze pro Eingabedatei pro Batch-Inferenzjob für Llama 3.3 70B Instruct Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in einer Eingabedatei in einem Batch-Inferenzjob für Llama 3.3 70B Instruct.
Datensätze pro Eingabedatei pro Batch-Inferenzjob für Llama 4 Maverick Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in einer Eingabedatei in einem Batch-Inferenzjob für Llama 4 Maverick.
Datensätze pro Eingabedatei pro Batch-Inferenzjob für Llama 4 Scout Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in einer Eingabedatei in einem Batch-Inferenzjob für Llama 4 Scout.
Datensätze pro Eingabedatei pro Batch-Inferenzjob für Mistral Large 2 (24.07) Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in einer Eingabedatei in einem Batch-Inferenzjob für Mistral Large 2 (24.07).
Datensätze pro Eingabedatei pro Batch-Inferenzjob für Mistral Small Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in einer Eingabedatei in einem Batch-Inferenzjob für Mistral Small.
Datensätze pro Eingabedatei pro Batch-Inferenzjob für Nova Lite V1 Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in einer Eingabedatei in einem Batch-Inferenzjob für Nova Lite V1.
Datensätze pro Eingabedatei pro Batch-Inferenzjob für Nova Micro V1 Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in einer Eingabedatei in einem Batch-Inferenzjob für Nova Micro V1.
Datensätze pro Eingabedatei pro Batch-Inferenzjob für Nova Pro V1 Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in einer Eingabedatei in einem Batch-Inferenzjob für Nova Pro V1.
Datensätze pro Eingabedatei pro Batch-Inferenzjob für Titan Multimodal Embeddings G1 Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in einer Eingabedatei in einem Batch-Inferenzjob für Titan Multimodal Embeddings G1.
Datensätze pro Eingabedatei pro Batch-Inferenzjob für Titan Text Embeddings V2 Jede unterstützte Region: 50 000 Ja Die maximale Anzahl von Datensätzen in einer Eingabedatei in einem Batch-Inferenzjob für Titan Text Embeddings V2.
Summe der laufenden und eingereichten Batch-Inferenzaufträge unter Verwendung eines Basismodells für Amazon Nova Premier Jede unterstützte Region: 20 Ja Die maximale Anzahl von laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Amazon Nova Premier.
Summe der laufenden und eingereichten Batch-Inferenzaufträge unter Verwendung eines Basismodells für Claude 3 Haiku Jede unterstützte Region: 20 Ja Die maximale Anzahl von laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Claude-3-Haiku.
Summe der laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Claude 3 Opus Jede unterstützte Region: 20 Ja Die maximale Anzahl von laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Claude 3 Opus.
Summe der laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Claude 3 Sonnet Jede unterstützte Region: 20 Ja Die maximale Anzahl von laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Claude 3 Sonnet.
Summe der laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Claude 3.5 Haiku Jede unterstützte Region: 20 Ja Die maximale Anzahl von laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Claude 3.5 Haiku.
Summe der laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Claude 3.5 Sonnet Jede unterstützte Region: 20 Ja Die maximale Anzahl von laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Claude 3.5 Sonnet.
Summe der laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Claude 3.5 Sonnet v2 Jede unterstützte Region: 20 Ja Die maximale Anzahl von laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Claude 3.5 Sonnet v2.
Summe der laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Llama 3.1 405B Instruct Jede unterstützte Region: 20 Ja Die maximale Anzahl von laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Llama 3.1 405B Instruct.
Summe der laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Llama 3.1 70B Instruct Jede unterstützte Region: 20 Ja Die maximale Anzahl laufender und gesendeter Batch-Inferenzjobs unter Verwendung eines Basismodells für Llama 3.1 70B Instruct.
Summe der laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Llama 3.1 8B Instruct Jede unterstützte Region: 20 Ja Die maximale Anzahl laufender und gesendeter Batch-Inferenzjobs unter Verwendung eines Basismodells für Llama 3.1 8B Instruct.
Summe der laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Llama 3.2 11B Instruct Jede unterstützte Region: 20 Ja Die maximale Anzahl laufender und gesendeter Batch-Inferenzjobs unter Verwendung eines Basismodells für Llama 3.2 11B Instruct.
Summe der laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Llama 3.2 1B Instruct Jede unterstützte Region: 20 Ja Die maximale Anzahl laufender und gesendeter Batch-Inferenzjobs unter Verwendung eines Basismodells für Llama 3.2 1B Instruct.
Summe der laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Llama 3.2 3B Instruct Jede unterstützte Region: 20 Ja Die maximale Anzahl von laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Llama 3.2 3B Instruct.
Summe der laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Llama 3.2 90B Instruct Jede unterstützte Region: 20 Ja Die maximale Anzahl laufender und gesendeter Batch-Inferenzjobs unter Verwendung eines Basismodells für Llama 3.2 90B Instruct.
Summe der laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Llama 3.3 70B Instruct Jede unterstützte Region: 20 Ja Die maximale Anzahl laufender und gesendeter Batch-Inferenzjobs unter Verwendung eines Basismodells für Llama 3.3 70B Instruct.
Summe der laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Llama 4 Maverick Jede unterstützte Region: 20 Ja Die maximale Anzahl laufender und gesendeter Batch-Inferenzjobs unter Verwendung eines Basismodells für Llama 4 Maverick.
Summe der laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Llama 4 Scout Jede unterstützte Region: 20 Ja Die maximale Anzahl von laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Llama 4 Scout.
Summe der laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Mistral Large 2 (24.07) Jede unterstützte Region: 20 Ja Die maximale Anzahl von laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Mistral Large 2 (24.07).
Summe der laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Mistral Small Jede unterstützte Region: 20 Ja Die maximale Anzahl von laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Mistral Small.
Summe der laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Nova Lite V1 Jede unterstützte Region: 20 Ja Die maximale Anzahl von laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Nova Lite V1.
Summe der laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Nova Micro V1 Jede unterstützte Region: 20 Ja Die maximale Anzahl von laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Nova Micro V1.
Summe der laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Nova Pro V1 Jede unterstützte Region: 20 Ja Die maximale Anzahl von laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Nova Pro V1.
Summe der laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Titan Multimodal Embeddings G1 Jede unterstützte Region: 20 Ja Die maximale Anzahl von laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Titan Multimodal Embeddings G1.
Summe der laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Titan Text Embeddings V2 Jede unterstützte Region: 20 Ja Die maximale Anzahl von laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines Basismodells für Titan Text Embeddings V2.
Summe der laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines benutzerdefinierten Modells für Titan Multimodal Embeddings G1 Jede unterstützte Region: 3 Nein Die maximale Anzahl von laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines benutzerdefinierten Modells für Titan Multimodal Embeddings G1.
Summe der laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines benutzerdefinierten Modells für Titan Text Embeddings V2 Jede unterstützte Region: 3 Nein Die maximale Anzahl von laufenden und eingereichten Batch-Inferenzjobs unter Verwendung eines benutzerdefinierten Modells für Titan Text Embeddings V2
Begrenzung der Drosselrate für Bedrock Data Automation Runtime: ListTagsForResource Jede unterstützte Region: 25 pro Sekunde Nein Die maximale Anzahl von Bedrock Data Automation Runtime: ListTagsForResource Anfragen, die Sie pro Sekunde und Konto in der aktuellen Region stellen können
Begrenzung der Drosselrate für Bedrock Data Automation Runtime: TagResource Jede unterstützte Region: 25 pro Sekunde Nein Die maximale Anzahl von Bedrock Data Automation Runtime: TagResource Anfragen, die Sie pro Sekunde und Konto in der aktuellen Region stellen können
Begrenzung der Drosselrate für Bedrock Data Automation Runtime: UntagResource Jede unterstützte Region: 25 pro Sekunde Nein Die maximale Anzahl von Bedrock Data Automation Runtime: UntagResource Anfragen, die Sie pro Sekunde und Konto in der aktuellen Region stellen können
Begrenzung der Drosselrate für Bedrock Data Automation: ListTagsForResource Jede unterstützte Region: 25 pro Sekunde Nein Die maximale Anzahl von Bedrock Data Automation: ListTagsForResource Anfragen, die Sie pro Sekunde und Konto in der aktuellen Region stellen können
Begrenzung der Drosselrate für Bedrock Data Automation: TagResource Jede unterstützte Region: 25 pro Sekunde Nein Die maximale Anzahl von Bedrock Data Automation: TagResource Anfragen, die Sie pro Sekunde und Konto in der aktuellen Region stellen können
Begrenzung der Drosselrate für Bedrock Data Automation: UntagResource Jede unterstützte Region: 25 pro Sekunde Nein Die maximale Anzahl von Bedrock Data Automation: UntagResource Anfragen, die Sie pro Sekunde und Konto in der aktuellen Region stellen können
Begrenzung der Drosselrate für CreateBlueprint Jede unterstützte Region: 5 pro Sekunde Nein Die maximale Anzahl von CreateBlueprint Anfragen, die Sie pro Sekunde und Konto in der aktuellen Region stellen können
Grenzwert für die Drosselungsrate CreateBlueprintVersion Jede unterstützte Region: 5 pro Sekunde Nein Die maximale Anzahl von CreateBlueprintVersion Anfragen, die Sie pro Sekunde und Konto in der aktuellen Region stellen können
Grenzwert für die Drosselungsrate CreateDataAutomationProject Jede unterstützte Region: 5 pro Sekunde Nein Die maximale Anzahl von CreateDataAutomationProject Anfragen, die Sie pro Sekunde und Konto in der aktuellen Region stellen können
Grenzwert für die Drosselungsrate DeleteBlueprint Jede unterstützte Region: 5 pro Sekunde Nein Die maximale Anzahl von DeleteBlueprint Anfragen, die Sie pro Sekunde und Konto in der aktuellen Region stellen können
Grenzwert für die Drosselungsrate DeleteDataAutomationProject Jede unterstützte Region: 5 pro Sekunde Nein Die maximale Anzahl von DeleteDataAutomationProject Anfragen, die Sie pro Sekunde und Konto in der aktuellen Region stellen können
Grenzwert für die Drosselungsrate GetBlueprint Jede unterstützte Region: 5 pro Sekunde Nein Die maximale Anzahl von GetBlueprint Anfragen, die Sie pro Sekunde und Konto in der aktuellen Region stellen können
Grenzwert für die Drosselungsrate GetDataAutomationProject Jede unterstützte Region: 5 pro Sekunde Nein Die maximale Anzahl von GetDataAutomationProject Anfragen, die Sie pro Sekunde und Konto in der aktuellen Region stellen können
Grenzwert für die Drosselungsrate GetDataAutomationStatus Jede unterstützte Region: 10 pro Sekunde Nein Die maximale Anzahl von GetDataAutomationStatus Anfragen, die Sie pro Sekunde und Konto in der aktuellen Region stellen können
Grenzwert für die Drosselungsrate InvokeDataAutomationAsync Jede unterstützte Region: 10 pro Sekunde Nein Die maximale Anzahl von InvokeDataAutomationAsync Anfragen, die Sie pro Sekunde und Konto in der aktuellen Region stellen können
Grenzwert für die Drosselungsrate ListBlueprints Jede unterstützte Region: 5 pro Sekunde Nein Die maximale Anzahl von ListBlueprints Anfragen, die Sie pro Sekunde und Konto in der aktuellen Region stellen können
Grenzwert für die Drosselungsrate ListDataAutomationProjects Jede unterstützte Region: 5 pro Sekunde Nein Die maximale Anzahl von ListDataAutomationProjects Anfragen, die Sie pro Sekunde und Konto in der aktuellen Region stellen können
Grenzwert für die Drosselungsrate UpdateBlueprint Jede unterstützte Region: 5 pro Sekunde Nein Die maximale Anzahl von UpdateBlueprint Anfragen, die Sie pro Sekunde und Konto in der aktuellen Region stellen können
Grenzwert für die Drosselungsrate UpdateDataAutomationProject Jede unterstützte Region: 5 pro Sekunde Nein Die maximale Anzahl von UpdateDataAutomationProject Anfragen, die Sie pro Sekunde und Konto in der aktuellen Region stellen können
UpdateAgent Anfragen pro Sekunde Jede unterstützte Region: 4 Nein Die maximale Anzahl von UpdateAgent API-Anfragen pro Sekunde.
UpdateAgentActionGroup Anfragen pro Sekunde Jede unterstützte Region: 6 Nein Die maximale Anzahl von UpdateAgentActionGroup API-Anfragen pro Sekunde.
UpdateAgentAlias Anfragen pro Sekunde Jede unterstützte Region: 2 Nein Die maximale Anzahl von UpdateAgentAlias API-Anfragen pro Sekunde.
UpdateAgentKnowledgeBase Anfragen pro Sekunde Jede unterstützte Region: 4 Nein Die maximale Anzahl von UpdateAgentKnowledgeBase API-Anfragen pro Sekunde.
Anmerkung

Sie können eine Erhöhung des Kontingents für Ihr Konto beantragen, indem Sie die folgenden Schritte ausführen:

  • Wenn ein Kontingent mit Ja markiert ist, können Sie es anpassen, indem Sie die Schritte unter Anfrage einer Kontingenterhöhung im Servicekontingents-Benutzerhandbuch befolgen.

  • Wenn ein Kontingent mit Nein markiert ist, können Sie über das Formular zur Limiterhöhung einen Antrag stellen, um für eine Erhöhung in Betracht gezogen zu werden.

  • Für jedes Modell können Sie gemeinsam eine Erhöhung für die folgenden Kontingente beantragen:

    • Regionsübergreifende InvokeModel Tokens pro Minute für ${model}

    • Regionsübergreifende InvokeModel Anfragen pro Minute für ${model}

    • InvokeModel Tokens auf Abruf pro Minute für ${model}

    • InvokeModel On-Demand-Anfragen pro Minute für ${model}

    Um eine Erhöhung für eine beliebige Kombination dieser Kontingente zu beantragen, fordern Sie eine Erhöhung der regionsübergreifenden InvokeModel Token pro Minute für das ${model} Kontingent an, indem Sie die Schritte unter Anfrage einer Kontingenterhöhung im Benutzerhandbuch für Service Quotas befolgen. Danach wird sich das Support-Team mit Ihnen in Verbindung setzen und Ihnen die Möglichkeit bieten, auch die anderen drei Kontingente zu erhöhen. Aufgrund der überwältigenden Nachfrage wird Kunden Vorrang eingeräumt, die Traffic generieren, der ihre bestehende Kontingentzuweisung verbraucht. Ihre Anfrage wird möglicherweise abgelehnt, wenn Sie diese Bedingung nicht erfüllen.