使用提示管理器创建提示 - Amazon Bedrock

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

使用提示管理器创建提示

创建提示时,您可以选择以下选项:

  • 编写提示消息,用作 FM 的输入以生成输出。

  • 使用双花括号在提示消息中包含变量(如所示{{variable}}),这些变量可以在调用提示符时填写。

  • 选择用于调用提示的模型,或者,如果您计划在代理中使用该提示,请将其保留为未指定。如果您选择模型,还可以修改要使用的推理配置。要查看不同模型的推理参数,请参阅基础模型的推理请求参数和响应字段

所有提示都支持以下基本推理参数:

  • MaxTokens – 允许在生成的响应中使用的最大词元数。

  • stopSequences – 停止序列的列表。停止序列是一个字符序列,会使模型停止生成响应。

  • temperature – 模型在生成响应时选择更高概率选项的可能性。

  • topP – 模型为下一个词元考虑的最有可能的候选项所占百分比。

如果模型支持其他推理参数,则可以将它们指定为提示的附加字段。您可以在 JSON 对象中提供其他字段。以下示例显示了如何设置top_k,该设置在AnthropicClaude模型中可用,但不是基本推理参数。

{ "top_k": 200 }

有关模型推理参数的信息,请参阅基础模型的推理请求参数和响应字段

将基本推理参数设置为附加字段不会覆盖您在控制台中设置的值。

如果您为提示选择的模型支持 Converse API(有关更多信息,请参阅与 Converse API 操作进行对话),则可以在构造提示时包括以下内容:

  • 为模型提供说明或上下文的系统提示。

  • 以前的提示(用户消息)和模型响应(助手消息)作为对话历史记录,供模型在为最终用户消息生成响应时考虑。

  • (如果模型支持)模型在生成响应时使用的工具

  • (如果模型支持)使用 P rompt 缓存通过缓存大型或经常使用的提示来降低成本。根据型号,您可以缓存系统指令、工具和消息(用户和助手)。如果您的提示前缀总数满足模型所需的最小令牌数,则提示缓存会为提示创建缓存检查点。当在提示中遇到更改的变量时,提示缓存会创建一个新的缓存检查点(如果输入令牌的数量达到模型所需的最小值)。

要了解如何使用 Prompt 管理创建提示,请选择首选方法的选项卡,然后按照以下步骤操作:

Console
创建提示
  1. 使用有权使用 Amazon Bedrock 控制台的 IAM 身份登录。 AWS Management Console 然后,在 https://console.aws.amazon.com/bedrock 上打开 Amazon Bedrock 控制台。

  2. 从左侧导航窗格中选择提示管理器。然后,选择创建提示

  3. 提供提示的名称和可选的描述。

  4. 要使用客户管理的密钥对提示进行加密,请在 KMS 密钥选择部分中选择自定义加密设置(高级)。如果省略此字段,则您的提示将使用加 AWS 托管式密钥密。有关更多信息,请参阅AWS KMS 密钥

  5. 选择创建提示。您的提示已创建,您将被带到新创建的提示符生成器,您可以在其中配置提示。

  6. 您可以继续执行以下流程来配置提示,也可以稍后返回提示生成器。

配置提示
  1. 如果您尚未进入提示生成器,请执行以下操作:

    1. 使用有权使用 Amazon Bedrock 控制台的 IAM 身份登录。 AWS Management Console 然后,在 https://console.aws.amazon.com/bedrock 上打开 Amazon Bedrock 控制台。

    2. 从左侧导航窗格中选择提示管理器。然后,在提示部分中选择一个提示。

    3. 提示草稿部分中,选择在提示生成器中编辑

  2. 使用 “提示” 窗格来构造提示。在最后一个用户消息框中输入提示。如果模型支持 Converse API 或AnthropicClaude消息 API,则您还可以添加系统提示以及之前的用户消息和助手消息以了解上下文。

    在编写提示时,可以在双花括号中包含变量(如所示)。{{variable}}您添加的每个变量都显示在测试变量部分中。

  3. (可选)您可以通过以下方式修改提示:

    • 在 “配置” 窗格中,执行以下操作:

      1. 选择用于运行推理的生成式 AI 资源

        注意

        如果您选择代理,则只能在控制台中测试提示。要了解如何在 API 中使用代理测试提示,请参阅使用提示管理器测试提示

      2. 推理参数中,设置要使用的推理参数。

      3. 如果模型支持推理,请打开 “推理”,将模型的推理包含在其响应中。在推理令牌中,您可以配置模型可以使用的推理标记的数量。

      4. 其他模型请求字段中,选择配置以指定推理参数以外的其他推理参数。

      5. 如果您选择的模型支持工具,请选择配置工具以使用带有提示的工具。

      6. 如果您选择的模型支持提示缓存,请选择以下选项之一(可用性因型号而异):

        • — 未进行任何提示缓存。

        • 工具-仅缓存提示中的工具。

        • 工具、系统指令-提示符中的工具和系统指令会被缓存。

        • 工具、系统指令和消息-缓存提示中的工具、系统指令和消息(用户和助手)。

    • 要比较提示的不同变体,请选择比较变体。您可以在比较页面上执行以下操作:

      • 要添加变体,请选择加号。您最多可以添加三个变体。

      • 指定变体的详细信息后,您可以指定任何测试变量并选择运行来测试变体的输出。

      • 要删除变体,请选择三个点,然后选择从比较中删除

      • 要替换工作草稿并退出比较模式,请选择另存为草稿。所有其他变体都将被删除。

      • 要退出比较模式,请选择退出比较模式

  4. 完成提示配置后,您可以选择以下选项:

API

要创建提示,请使用适用于 Amazon Bedrock 的代理构建时终端节点发送CreatePrompt请求。

以下字段是必填字段:

字段 简要描述
名称 提示的名称。
variants 提示的不同配置列表(见下文)。
defaultVariant 默认变体的名称。

variants列表中的每个变体都是以下一般结构的PromptVariant对象:

{ "name": "string", # modelId or genAiResource (see below) "templateType": "TEXT", "templateConfiguration": # see below, "inferenceConfiguration": { "text": { "maxTokens": int, "stopSequences": ["string", ...], "temperature": float, "topP": float } }, "additionalModelRequestFields": { "key": "value", ... }, "metadata": [ { "key": "string", "value": "string" }, ... ] }

按如下所示填写各字段:

  • name – 输入变体的名称。

  • 包括以下字段之一,具体取决于要使用的模型调用资源:

    • modeliD — 要指定要与提示一起使用的基础模型推理配置文件,请输入其 ARN 或 ID。

    • genAiResource — 要指定代理,请输入其 ID 或 ARN。的值genAiResource是以下格式的 JSON 对象:

      { "genAiResource": { "agent": { "agentIdentifier": "string" } }
      注意

      如果包含该genAiResource字段,则只能在控制台中测试提示。要在 API 中使用代理测试提示,您必须直接在InvokeAgent请求inputText字段中输入提示文本。

  • 模板类型-输入TEXT或。CHAT CHAT仅与支持 C onverse API 的型号兼容。如果要使用提示缓存,则必须使用CHAT模板类型。

  • 模板配置 — 该值取决于您指定的模板类型:

  • 推理配置—字段映射到. text PromptModelInferenceConfiguration 此字段包含所有模型通用的推理参数。要了解有关推理参数的更多信息,请参阅利用推理参数影响响应生成

  • additionalModelRequest字段-使用此字段指定特定于正在运行推理的模型的推理参数。要了解有关特定于模型的推理参数的更多信息,请参阅。基础模型的推理请求参数和响应字段

  • metadata – 要与提示变体关联的元数据。您可以将键值对附加到数组,以使用元数据标记提示变体。

以下字段是可选字段:

字段 应用场景
description 为提示提供描述。
clientToken 用于确保 API 请求仅完成一次。有关更多信息,请参阅确保幂等性
tags 将标签与流相关联。有关更多信息,请参阅 标记 Amazon Bedrock 资源

响应将创建一个 DRAFT 版本并返回一个 ID 和 ARN,您可以将其用作其他与提示相关的 API 请求的提示标识符。