Solicitação e reposta - Amazon Bedrock

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Solicitação e reposta

O corpo da solicitação é passado no body campo de uma solicitação para InvokeModelou InvokeModelWithResponseStream. O tamanho máximo da carga útil que você pode enviar em uma solicitação é de 20 MB.

Para obter mais informações, consulte https://docs.anthropic.com/claude/reference/messages_post.

Request

O Claude da Anthropic tem os parâmetros de inferência a seguir para uma chamada de inferência de mensagens.

{ "anthropic_version": "bedrock-2023-05-31", "anthropic_beta": ["computer-use-2024-10-22"] "max_tokens": int, "system": string, "messages": [ { "role": string, "content": [ { "type": "image", "source": { "type": "base64", "media_type": "image/jpeg", "data": "content image bytes" } }, { "type": "text", "text": "content text" } ] } ], "temperature": float, "top_p": float, "top_k": int, "tools": [ { "type": "custom", "name": string, "description": string, "input_schema": json }, { "type": "computer_20241022", "name": "computer", "display_height_px": int, "display_width_px": int, "display_number": 0 int }, { "type": "bash_20241022", "name": "bash" }, { "type": "text_editor_20241022", "name": "str_replace_editor" } ], "tool_choice": { "type" : string, "name" : string, }, "stop_sequences": [string] }

Veja a seguir os parâmetros necessários.

  • anthropic_version: (obrigatório) a versão da Anthropic. O valor deve ser bedrock-2023-05-31.

  • max_tokens: (obrigatório) o número máximo de tokens a serem gerados antes de parar.

    Observe que os modelos Claude da Anthropic podem parar de gerar tokens antes de atingir o valor de max_tokens. Modelos diferentes do Claude da Anthropic têm valores máximos diferentes para esse parâmetro. Para obter mais informações, consulte Model comparison.

  • messages: (obrigatório) as mensagens de entrada.

    • role: o perfil do turno da conversa. Os valores válidos são user e assistant.

      Mínimo Máximo

      0

      2000

    • conteúdo — (obrigatório) O conteúdo do turno da conversa, como uma matriz de objetos. Cada objeto contém um campo de tipo, no qual você pode especificar um dos seguintes valores:

      • text— Se você especificar esse tipo, deverá incluir um campo de texto e especificar o prompt de texto como seu valor. Se outro objeto na matriz for uma imagem, esse prompt de texto se aplicará às imagens.

      • image— Se você especificar esse tipo, deverá incluir um campo de origem mapeado para um objeto com os seguintes campos:

        • type: (obrigatório) o tipo de codificação da imagem. Você pode especificar base64.

        • media_type: (obrigatório) o tipo da imagem. Você pode especificar os seguintes formatos de imagem:

          • image/jpeg

          • image/png

          • image/webp

          • image/gif

        • data: (obrigatório) os bytes de imagem codificados em base64 para a imagem. O tamanho máximo da imagem é 3,75 MB. O valor da altura e da largura máximas de uma imagem é 8.000 pixels.

Veja a seguir os parâmetros opcionais.

  • system: (opcional) o prompt do sistema para a solicitação.

    Um prompt do sistema é uma maneira de contextualizar e dar instruções para o Claude da Anthropic, como especificar uma meta ou função específica. Para obter mais informações, consulte System prompts na documentação da Anthropic.

    nota

    Você pode usar os prompts do sistema com o Claude versão 2.1 ou posterior da Anthropic.

  • anthropic_beta — (Opcional) O parâmetro beta antrópico é uma lista de sequências de cabeçalhos beta usados para indicar a aceitação de um conjunto específico de recursos beta.

    nota

    A variante de tamanho de contexto de 1 milhão de tokens de Claude Sonnet 4 está disponível para você em AWS regiões selecionadas como um “Serviço Beta”, conforme definido nos Termos AWS de Serviço. Está sujeito ao seu Contrato AWS e aos Termos AWS de Serviço e ao modelo de EULA aplicável. Consulte a página de preços do Amazon Bedrock para obter mais informações sobre os preços para solicitações de contexto mais longas. Aplicam-se cotas de serviço separadas (para obter mais informações, consulte Cotas de serviço no AWS Management Console).

    Os cabeçalhos beta disponíveis incluem o seguinte:

    Atributo beta

    Cabeçalho beta

    Observações

    Uso do computador

    computer-use-2025-01-24

    Compatível comClaude 3.7 Sonnet.

    Uso do computador

    computer-use-2024-10-22

    Compatível com Claude 3.5 Sonnet v2.

    Uso de ferramentas

    token-efficient-tools-2025-02-19

    Compatível comClaude 3.7 Sonnet.

    Pensamento intercalado

    Interleaved-thinking-2025-05-14

    Compatível com Claude 4 modelos.

    Permite tokens de saída de até 128K

    output-128k-2025-02-19

    Compatível comClaude 3.7 Sonnet.

    Modo de desenvolvedor para pensamento bruto em Claude 4 modelos

    dev-full-thinking-2025-05-14

    Compatível apenas com Claude 4 modelos. Entre em contato com a equipe da sua conta para acessar esta versão beta.

    1 milhão de tokens

    context-1m-2025-08-07

    Compatível com Claude Sonnet 4

  • stop_sequences: (opcional) sequências de texto personalizadas que fazem com que o modelo deixe de gerar. Os modelos Claude da Anthropic normalmente param quando completam a vez naturalmente; nesse caso, o valor do campo de resposta stop_reason é end_turn. Se quiser que o modelo deixe de ser gerado ao encontrar strings de texto personalizadas, você poderá usar o parâmetro stop_sequences. Se o modelo encontrar uma das strings de texto personalizadas, o valor do campo de resposta stop_reason será stop_sequence e o valor de stop_sequence conterá a sequência de parada correspondente.

    O número máximo de entradas é 8.191.

  • temperature: (opcional) a aleatoriedade injetada na resposta.

    Padrão Mínimo Máximo

    1

    0

    1

  • top_p: (opcional) use amostragem de núcleo.

    Na amostragem de núcleo, o Claude da Anthropic calcula a distribuição cumulativa de todas as opções de cada token subsequente em ordem de probabilidade decrescente e a interrompe quando atinge uma determinada probabilidade especificada por top_p. Ao ajustar os parâmetros de amostragem, modifique ou. temperature top_p Não modifique os dois ao mesmo tempo.

    Padrão Mínimo Máximo

    0,999

    0

    1

  • top_k: (opcional) somente um exemplo das opções K principais para cada token subsequente.

    Use top_k para remover respostas de baixa probabilidade de cauda longa.

    Padrão Mínimo Máximo

    Desabilitado por padrão.

    0

    500

  • tools: (opcional) definições de ferramentas que o modelo pode usar.

    nota

    Exige um modelo Claude 3 da Anthropic.

    Se você incluir tools na solicitação, o modelo poderá retornar blocos de conteúdo tool_use que representam o uso dessas ferramentas do modelo. É possível executar essas ferramentas usando a entrada de ferramenta gerada pelo modelo e, opcionalmente, retornar os resultados ao modelo usando blocos de conteúdo de tool_result.

    Você pode passar os seguintes tipos de ferramenta:

    Personalizada

    Definição de uma ferramenta personalizada.

    • (opcional) type: o tipo da ferramenta. Se definido, use o valor custom.

    • name: o nome da ferramenta.

    • description: (opcional, mas altamente recomendado) a descrição da ferramenta.

    • input_schema: o esquema JSON da ferramenta.

    Computação

    Definição da ferramenta de computação usada por você com a API Computer Use.

    • type: o valor deve ser computer_20241022.

    • name: o valor deve ser computer.

    • (Obrigatório) display_height_px: a altura da tela que está sendo controlada pelo modelo, em pixels.

      Padrão Mínimo Máximo

      Nenhum

      1

      Sem máximo

    • (Obrigatório) display_width_px: a largura da tela que está sendo controlada pelo modelo, em pixels.

      Padrão Mínimo Máximo

      Nenhum

      1

      Sem máximo

    • (Opcional) display_number: o número de exibição a ser controlado (só relevante para ambientes X11). Se especificada, a ferramenta receberá um número de exibição na definição da ferramenta.

      Padrão Mínimo Máximo

      Nenhum

      0

      N

    bash

    Definição da ferramenta de bash usada por você com a API Computer Use.

    • (opcional) type: o valor deve ser bash_20241022.

    • name: o valor deve ser bash.

    text editor

    Definição da ferramenta de edição de texto usada por você com a API Computer Use.

    • (opcional) type: o valor deve ser text_editor_20241022.

    • name: o valor deve ser str_replace_editor.

  • tool_choice: (opcional) especifica como o modelo deve usar as ferramentas fornecidas. O modelo pode usar uma ferramenta específica, qualquer ferramenta disponível ou decidir por conta própria.

    nota

    Exige um modelo Claude 3 da Anthropic.

    • type: o tipo de opção de ferramenta. Os valores possíveis são any (use qualquer ferramenta disponível), auto (o modelo decide) e tool (use a ferramenta especificada).

    • name: (opcional) o nome da ferramenta a ser usada. Obrigatório se você especificar tool no campo type.

Response

O modelo Claude da Anthropic exibe os campos a seguir para uma chamada de inferência de mensagens.

{ "id": string, "model": string, "type" : "message", "role" : "assistant", "content": [ { "type": string, "text": string, "image" :json, "id": string, "name":string, "input": json } ], "stop_reason": string, "stop_sequence": string, "usage": { "input_tokens": integer, "output_tokens": integer } }
  • id: o identificador exclusivo da resposta. O formato e o tamanho do ID podem mudar com o passar do tempo.

  • model: o ID do modelo Claude da Anthropic que fez a solicitação.

  • stop_reason: o motivo pelo qual o Claude da Anthropic deixou de gerar a resposta.

    • end_turn: o modelo atingiu um ponto de parada natural

    • max_tokens: o texto gerado excedeu o valor do campo de entrada max_tokens ou excedeu o número máximo de tokens compatíveis com o modelo.

    • stop_sequence: o modelo gerou uma das sequências de parada especificadas por você no campo de entrada stop_sequences.

  • stop_sequence: a sequência de parada que encerrou a geração.

  • type: o tipo de resposta. O valor é sempre message.

  • role: a função conversacional da mensagem gerada. O valor é sempre assistant.

  • content: o conteúdo gerado pelo modelo. Retornado como uma matriz. Há três tipos de conteúdo: texto, uso de ferramentas e imagem.

    • text: uma resposta em texto.

      • tipo — O tipo do conteúdo. Este valor é text.

      • texto — Se o valor de type for texto, conterá o texto do conteúdo.

    • uso da ferramenta — Uma solicitação do modelo para usar uma ferramenta.

      • tipo — O tipo do conteúdo. Este valor é tool_use.

      • id: o ID da ferramenta cujo uso o modelo está solicitando.

      • nome — Contém o nome da ferramenta solicitada.

      • input: os parâmetros de entrada a serem passados para a ferramenta.

    • Imagem — Uma solicitação do modelo para usar uma ferramenta.

      • tipo — O tipo do conteúdo. Este valor é image.

      • fonte — Contém a imagem. Para obter mais informações, consulte Prompts multimodais.

  • usage: contêiner para o número de tokens fornecidos por você na solicitação e o número de tokens que o modelo gerou na resposta.

    • input_tokens: o número de tokens de entrada na solicitação.

    • output_tokens: o número de tokens gerados pelo modelo na resposta.

    • stop_sequence: o modelo gerou uma das sequências de parada especificadas por você no campo de entrada stop_sequences.