

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Execute exemplos de solicitações de API do Amazon Bedrock com o AWS Command Line Interface
<a name="getting-started-api-ex-cli"></a>

Esta seção orienta você a experimentar algumas operações comuns no Amazon Bedrock usando o AWS Command Line Interface para testar se suas permissões e autenticação estão configuradas corretamente. Antes de executar os exemplos abaixo, verifique se os seguintes pré-requisitos foram atendidos:

**Pré-requisitos**
+ Você tem um Conta da AWS e um usuário ou função com a autenticação configurada e as permissões necessárias para o Amazon Bedrock. Caso contrário, siga as etapas em [Começar a usar a API](getting-started-api.md).
+ Você instalou e configurou a autenticação para a AWS CLI. Para instalar o AWS CLI, siga as etapas em [Instalar ou atualizar para a versão mais recente do AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/getting-started-install.html). Verifique se você configurou suas credenciais para usar a CLI seguindo as etapas em [Obter credenciais para conceder acesso programático](getting-started-api.md#gs-grant-program-access).

Teste se suas permissões estão configuradas corretamente para o Amazon Bedrock, usando um usuário ou um perfil que você configurou com as permissões adequadas.

**Topics**
+ [Listar os modelos de base que o Amazon Bedrock oferece](#getting-started-api-ex-cli-listfm)
+ [Envie uma solicitação de texto para um modelo e gere uma resposta de texto com InvokeModel](#getting-started-api-ex-cli-invoke-text)
+ [Enviar um prompt de texto a um modelo e gerar uma resposta de texto com Converse](#getting-started-api-ex-cli-converse)

## Listar os modelos de base que o Amazon Bedrock oferece
<a name="getting-started-api-ex-cli-listfm"></a>

O exemplo a seguir executa a [ListFoundationModels](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_ListFoundationModels.html)operação usando AWS CLI o. `ListFoundationModels`lista os modelos de fundação (FMs) que estão disponíveis no Amazon Bedrock em sua região. Em um terminal, execute o seguinte comando:

```
aws bedrock list-foundation-models
```

Se a ação for bem-sucedida, a resposta retornará uma lista de modelos de base disponíveis no Amazon Bedrock.

## Envie uma solicitação de texto para um modelo e gere uma resposta de texto com InvokeModel
<a name="getting-started-api-ex-cli-invoke-text"></a>

O exemplo a seguir executa a [InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html)operação usando AWS CLI o. `InvokeModel`permite que você envie uma solicitação para gerar uma resposta do modelo. Em um terminal, execute o seguinte comando:

```
aws bedrock-runtime invoke-model \
--model-id amazon.titan-text-express-v1 \
--body '{"inputText": "Describe the purpose of a \"hello world\" program in one line.", "textGenerationConfig" : {"maxTokenCount": 512, "temperature": 0.5, "topP": 0.9}}' \
--cli-binary-format raw-in-base64-out \
invoke-model-output-text.txt
```

Se o comando for bem-sucedido, a resposta gerada pelo modelo será gravada no arquivo `invoke-model-output-text.txt`. A resposta de texto é retornada no campo `outputText`, com as informações que a acompanham.

## Enviar um prompt de texto a um modelo e gerar uma resposta de texto com Converse
<a name="getting-started-api-ex-cli-converse"></a>

O exemplo a seguir executa a operação [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) usando o. AWS CLI`Converse`permite que você envie uma solicitação para gerar uma resposta do modelo. É recomendável usar a operação `Converse` em vez de `InvokeModel` quando compatível, pois ela unifica a solicitação de inferência nos modelos do Amazon Bedrock e simplifica o gerenciamento de conversas em vários turnos. Em um terminal, execute o seguinte comando:

```
aws bedrock-runtime converse \
--model-id amazon.titan-text-express-v1 \
--messages '[{"role": "user", "content": [{"text": "Describe the purpose of a \"hello world\" program in one line."}]}]' \
--inference-config '{"maxTokens": 512, "temperature": 0.5, "topP": 0.9}'
```

Se o comando for bem-sucedido, a resposta gerada pelo modelo será retornada no campo `text`, com as informações que o acompanham.