Stability.ai Diffusion 1.0 Bild zu Bild (Maskierung) - Amazon Bedrock

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Stability.ai Diffusion 1.0 Bild zu Bild (Maskierung)

Das Modell Stability.ai Diffusion 1.0 verfügt über die folgenden Inferenzparameter und die folgende Modellantwort für die Verwendung von Masken mit Bild-zu-Bild-Inferenzaufrufen.

Anforderung und Antwort

Der Anfragetext wird im body Feld einer Anfrage an InvokeModeloder übergeben InvokeModelWithResponseStream.

Weitere Informationen finden Sie unter https://platform.stability.ai/docs/api-reference#tag/v1generation/operation/masking.

Request

Das Modell Stability.ai Diffusion 1.0 verfügt über die folgenden Inferenzparameter für Bild-zu-Bild-Inferenzaufrufe (Maskierung).

{ "text_prompts": [ { "text": string, "weight": float } ], "init_image" : string , "mask_source" : string, "mask_image" : string, "cfg_scale": float, "clip_guidance_preset": string, "sampler": string, "samples" : int, "seed": int, "steps": int, "style_preset": string, "extras" : json object }

Die folgenden Parameter sind erforderlich.

  • text_prompt: (Erforderlich) Eine Reihe von Textaufforderungen, die für die Generierung verwendet werden sollen. Jedes Element ist ein JSON Objekt, das eine Eingabeaufforderung und eine Gewichtung für die Aufforderung enthält.

    • text: Die Eingabeaufforderung, die Sie an das Modell übergeben möchten.

      Minimum Maximum

      0

      2000

    • weight: (Optional) Die Gewichtung, die das Modell auf die Eingabeaufforderung anwenden soll. Ein Wert kleiner als Null deklariert eine negative Eingabeaufforderung. Verwenden Sie eine negative Eingabeaufforderung, um das Modell anzuweisen, bestimmte Konzepte zu vermeiden. Der Standardwert für weight beträgt eins.

  • init_image: (Erforderlich) Das base64-kodierte Bild, das Sie zur Initialisierung des Diffusionsprozesses verwenden möchten.

  • mask_source: (Erforderlich) Bestimmt, woher die Maske bezogen werden soll. Die möglichen Werte sind:

    • MASK_ IMAGE _ WHITE — Verwenden Sie die weißen Pixel des Maskenbilds mask_image als Maske. Weiße Pixel werden ersetzt und schwarze Pixel bleiben unverändert.

    • MASK_ IMAGE _ BLACK — Verwenden Sie die schwarzen Pixel des Maskenbilds mask_image als Maske. Schwarze Pixel werden ersetzt und weiße Pixel bleiben unverändert.

    • INIT_ IMAGE _ ALPHA — Verwenden Sie den Alphakanal des Bilds init_image als Maske. Vollständig transparente Pixel werden ersetzt und vollständig undurchsichtige Pixel bleiben unverändert.

  • mask_image: (Erforderlich) Das base64-kodierte Maskenbild, das Sie als Maske für das Quellbild in init_image verwenden möchten. Muss die gleichen Abmessungen wie das Quellbild haben. Verwenden Sie die Option mask_source, um anzugeben, welche Pixel ersetzt werden sollen.

Die folgenden Parameter sind optional.

  • cfg_scale: (Optional) Legt fest, inwiefern das endgültige Bild die Eingabeaufforderung wiedergibt. Verwenden Sie eine niedrigere Zahl, um die Zufälligkeit bei der Generierung zu erhöhen.

    Standard Minimum Maximum

    7

    0

    35

  • clip_guidance_preset: (Optional) Aufzählung: FAST_BLUE, FAST_GREEN, NONE, SIMPLE, SLOW, SLOWER, SLOWEST

  • sampler: (Optional) Der Sampler, der für den Diffusionsprozess verwendet werden soll. Wenn dieser Wert ausgelassen wird, wählt das Modell automatisch einen geeigneten Sampler für Sie aus.

    Aufzählung: DDIM, DDPM, K_DPMPP_2M, K_DPMPP_2S_ANCESTRAL, K_DPM_2, K_DPM_2_ANCESTRAL, K_EULER, K_EULER_ANCESTRAL, K_HEUN K_LMS.

  • numberOfImages: (Optional) Die Anzahl der zu generierenden Bilder. Derzeit unterstützt Amazon Bedrock die Generierung eines Bildes. Wenn Sie einen Wert für samples angeben, muss der Wert eins sein. generiert

    Standard Minimum Maximum

    1

    1

    1

  • seed: (Optional) Der Seed bestimmt die anfängliche Einstellung für das Rauschen. Verwenden Sie denselben Startwert und dieselben Einstellungen wie bei einem vorherigen Lauf, damit Inferenzen ein ähnliches Bild erzeugen können. Wenn Sie diesen Wert nicht festlegen oder der Wert 0 ist, wird er als Zufallszahl festgelegt.

    Standard Minimum Maximum

    0

    0

    4294967295

  • steps: (Optional) Der Generierungsschritt bestimmt, wie oft das Bild abgetastet wird. Mehr Schritte können zu einem genaueren Ergebnis führen.

    Standard Minimum Maximum

    30

    10

    50

  • style_preset: (Optional) Eine Stilvoreinstellung, die das Bildmodell auf einen bestimmten Stil ausrichtet. Diese Liste mit Stilvoreinstellungen ist Änderungen vorbehalten.

    Aufzählung: 3d-model, analog-film, animé, cinematic, comic-book, digital-art, enhance, fantasy-art, isometric, line-art, low-poly, modeling-compound, neon-punk, origami, photographic, pixel-art, tile-texture

  • extras: (Optional) Zusätzliche Parameter, die an die Engine übergeben werden. Verwenden Sie es mit Bedacht. Diese Parameter werden für in der Entwicklung befindliche oder experimentelle Funktionen verwendet und können sich ohne Vorwarnung ändern.

Response

Das Modell Stability.ai Diffusion 1.0 verfügt über die folgenden Felder für Text-zu-Bild-Inferenzaufrufe.

{ "result": string, "artifacts": [ { "seed": int, "base64": string, "finishReason": string } ] }
  • result: Das Ergebnis der Operation. Bei Erfolg lautet die Antwort success.

  • artifacts: Eine Reihe von Bildern, eines für jedes angeforderte Bild.

    • seed: Der Wert des Seeds, der zur Generierung des Bildes verwendet wurde.

    • base64: Das base64-kodierte Bild, das das Modell generiert hat.

    • finishedReason— Das Ergebnis des Bilderzeugungsprozesses. Gültige Werte für sind:

      • SUCCESS— Der Bilderzeugungsprozess war erfolgreich.

      • ERROR— Ein Fehler ist aufgetreten.

      • CONTENT_ FILTERED — Der Inhaltsfilter hat das Bild gefiltert und das Bild ist möglicherweise unscharf.