Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Le corps de la demande est transmis dans le body
champ d'une demande à InvokeModelou InvokeModelWithResponseStream.
Modèle de champ du corps de la demande d'invocation
Lorsque vous passez un InvokeModel appel à l'aide d'un modèle Stable Image Ultra, remplissez le champ du corps avec un JSON objet semblable à celui ci-dessous.
-
prompt — (chaîne) Ce que vous souhaitez voir dans l'image de sortie. Un message descriptif fort qui définit clairement les éléments, les couleurs et les sujets permettra d'obtenir de meilleurs résultats.
Minimum Maximum 0
10 000
import boto3
import json
import base64
import io
from PIL import Image
bedrock = boto3.client('bedrock-runtime', region_name='us-west-2')
response = bedrock.invoke_model(
modelId='stability.stable-image-ultra-v1:0',
body=json.dumps({
'prompt': 'A car made out of vegetables.'
})
)
output_body = json.loads(response["body"].read().decode("utf-8"))
base64_output_image = output_body["images"][0]
image_data = base64.b64decode(base64_output_image)
image = Image.open(io.BytesIO(image_data))
image.save("image.png")
Modèle : réponse à l'invocation, corps du corps du corps
Lorsque vous passez un InvokeModel
appel à l'aide d'un modèle Stable Image Ultra, la réponse ressemble à celle ci-dessous
{
'seeds': [2130420379],
"finish_reasons": [null],
"images": ["..."]
}
Une réponse dont la raison finale ne l'est pas null
ressemblera à ce qui suit :
{
"finish_reasons": ["Filter reason: prompt"]
}
seeds — (chaîne) Liste des graines utilisées pour générer des images pour le modèle.
-
finish_reasons — Enum indiquant si la demande a été filtrée ou non.
null
indiquera que la demande a été acceptée. Valeurs possibles actuelles :"Filter reason: prompt", "Filter reason: output image", "Filter reason: input image", "Inference error", null
. -
images — Liste des images générées au format de chaîne base64.
Pour plus d'informations, consultez https://platform.stability. ai/docs/api-reference#tag/v1génération
Le modèle Stability.ai Stable Image Ultra possède les paramètres d'inférence suivants pour un appel d' text-to-imageinférence.
-
prompt — (chaîne) Ce que vous souhaitez voir dans l'image de sortie. Un message descriptif fort qui définit clairement les éléments, les couleurs et les sujets permettra d'obtenir de meilleurs résultats.
Minimum Maximum 0
10 000
Champs facultatifs
aspect_ratio — (chaîne) Contrôle le rapport hauteur/largeur de l'image générée. Ce paramètre n'est valide que pour les text-to-image demandes. Par défaut 1:1. Enum : 16:9, 1:1, 21:9, 2:3, 3:2, 4:5, 5:4, 9:16, 9:21.
-
mode — Réglé sur text-to-image. Par défaut : text-to-image. Énumération :
text-to-image
. -
output_format — Spécifie le format de l'image de sortie. Formats pris en charge :JPEG,PNG. Dimensions prises en charge : hauteur 640 à 1 536 pixels, largeur 640 à 1 536 pixels.
-
seed — (nombre) Valeur spécifique utilisée pour indiquer le « caractère aléatoire » de la génération. (Omettez ce paramètre ou transmettez 0 pour utiliser une valeur de départ aléatoire.) Plage : 0 à 4294967295.
-
negative_prompt — Mots clés indiquant ce que vous ne souhaitez pas voir dans l'image de sortie. Maximum : 10 000 caractères.
import boto3
import json
import base64
import io
from PIL import Image
bedrock = boto3.client('bedrock-runtime', region_name='us-west-2')
response = bedrock.invoke_model(
modelId='stability.sd3-ultra-v1:0',
body=json.dumps({
'prompt': 'A car made out of vegetables.'
})
)
output_body = json.loads(response["body"].read().decode("utf-8"))
base64_output_image = output_body["images"][0]
image_data = base64.b64decode(base64_output_image)
image = Image.open(io.BytesIO(image_data))
image.save("image.png")