Formatieren und Hochladen Ihrer Inferenzdaten - Amazon Bedrock

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Formatieren und Hochladen Ihrer Inferenzdaten

Anmerkung

Bei der Batch-Inferenz handelt es sich um eine Vorversion, die Änderungen unterliegt. Batch-Inferenz ist derzeit nur über die API verfügbar. Greifen Sie über die folgenden SDKs auf Batch-APIs zu.

Wir empfehlen, dass Sie eine virtuelle Umgebung für die Verwendung des SDK erstellen. Da Batch-Inferenz-APIs in den neuesten SDKs nicht verfügbar sind, empfehlen wir, dass Sie die neueste Version des SDK aus der virtuellen Umgebung deinstallieren, bevor Sie die Version mit den Batch-Inferenz-APIs installieren. Ein Beispiel mit Anleitungen finden Sie unter. Codebeispiele

Laden Sie JSONL-Dateien mit den Daten für die Eingabe in das Modell im folgenden Format in Ihren S3-Bucket hoch. Jede Zeile sollte dem folgenden Format entsprechen und ist ein anderes Inferenzelement. Wenn Sie das Feld recordId auslassen, fügt Amazon Bedrock es der Ausgabe hinzu.

Anmerkung

Das Format des JSON-Objekts modelInput sollte mit dem body-Feld für das Modell übereinstimmen, das Sie in der InvokeModel-Anforderung verwenden. Weitere Informationen finden Sie unter Inferenzparameter für Basismodelle.

{ "recordId" : "11 character alphanumeric string", "modelInput" : {JSON body} } ...

Sie könnten beispielsweise eine JSONL-Datei mit den folgenden Daten bereitstellen und Batch-Inferenz für ein Titan Textmodell ausführen.

{ "recordId" : "3223593EFGH", "modelInput" : {"inputText": "Roses are red, violets are"} } { "recordId" : "1223213ABCD", "modelInput" : {"inputText": "Hello world"} }