As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Modelos da OpenAI
OpenAIoferece os seguintes modelos de peso aberto:
-
gpt-oss-20b
— Um modelo menor otimizado para menor latência e casos de uso locais ou especializados. -
gpt-oss-120b
— Um modelo maior otimizado para casos de uso de produção e uso geral ou de alto raciocínio.
A tabela a seguir resume as informações sobre os modelos:
Informações | gpt-oss-20b | gpt-oss-120b |
---|---|---|
Data de lançamento | 5 de agosto de 2025 | 5 de agosto de 2025 |
ID do modelo | openai.gpt-oss-20b-1:0 | openai.gpt-oss-120b-1:0 |
ID do produto | N/D | N/D |
Modalidades de entrada suportadas | Texto | Texto |
Modalidades de saída suportadas | Texto | Texto |
Janela de contexto | 128.000 | 128.000 |
Os OpenAI modelos oferecem suporte aos seguintes recursos:
-
Invocação do modelo com as seguintes operações:
-
Aplicação de guardrails por meio do uso de cabeçalhos nas operações de invocação do modelo.
OpenAIcorpo da solicitação
Para obter informações sobre os parâmetros no corpo da solicitação e suas descrições, consulte Criar conclusão de bate-papo
Use os campos do corpo da solicitação das seguintes maneiras:
-
Em uma solicitação InvokeModelou de conclusão do OpenAI Chat, inclua os campos no corpo da solicitação.
-
Em uma solicitação Converse, faça o seguinte:
-
Mapeie o
messages
seguinte:-
Para cada mensagem cuja função é
developer
, adicionecontent
a SystemContentBlocknasystem
matriz. -
Para cada mensagem cuja função é
user
ouassistant
, adicionecontent
a a ContentBlocknocontent
campo e especifique arole
norole
campo de uma Mensagem namessages
matriz.
-
-
Mapeie os valores dos seguintes campos para os campos correspondentes no
inferenceConfig
objeto:OpenAI field Campo inverso tokens máximos de conclusão maxTokens parar stopSequences temperature temperatura top_p topP -
Inclua qualquer outro campo no
additionalModelRequestFields
objeto.
-
Considerações ao construir o corpo da solicitação
-
Os OpenAI modelos suportam somente entrada e saída de texto.
-
O valor no
model
campo deve corresponder ao do cabeçalho. Você pode omitir esse campo para permitir que ele seja preenchido automaticamente com o mesmo valor do cabeçalho. -
O valor no
stream
campo deve corresponder à operação de API que você usa. Você pode omitir esse campo para permitir que ele seja preenchido automaticamente com o valor correto.-
Se você usar InvokeModel, o
stream
valor deve serfalse
.
-
OpenAIcorpo de resposta
O corpo da resposta dos OpenAI modelos está em conformidade com o objeto de conclusão do bate-papo retornado porOpenAI. Para obter mais informações sobre os campos de resposta, consulte O objeto de conclusão do chat
nota
Se você usarInvokeModel
, o raciocínio do modelo, cercado por <reasoning>
tags, precede o conteúdo do texto da resposta.
Exemplo de uso de OpenAI modelos
Esta seção fornece alguns exemplos de como usar os OpenAI modelos.
Antes de testar esses exemplos, verifique se você cumpriu os pré-requisitos:
-
Autenticação — Você pode se autenticar com suas AWS credenciais ou com uma chave de API Amazon Bedrock.
Configure suas AWS credenciais ou gere uma chave de API Amazon Bedrock para autenticar sua solicitação.
Para saber mais sobre como configurar suas AWS credenciais, consulte Acesso programático com credenciais de AWS segurança.
Para saber mais sobre as chaves de API do Amazon Bedrock e como gerá-las, consulteGere chaves de API do Amazon Bedrock para se autenticar facilmente na API do Amazon Bedrock.
nota
Se você usar a API de conclusão do OpenAI Chat, só poderá se autenticar com uma chave de API do Amazon Bedrock.
-
Endpoint — Encontre o endpoint que corresponde à AWS região a ser usada nos endpoints e cotas do Amazon Bedrock Runtime. Se você usa um AWS SDK, talvez precise especificar apenas o código da região e não o endpoint inteiro ao configurar o cliente. Você deve usar um endpoint associado a uma região suportada pelo modelo usado no exemplo.
-
Acesso ao modelo — Solicite acesso a um OpenAI modelo. Para obter mais informações, consulte Adicionar ou remover o acesso aos modelos de base do Amazon Bedrock.
-
(Se o exemplo usar um SDK) Instale o SDK — Após a instalação, configure as credenciais padrão e uma região padrão. AWS Se você não configurar credenciais padrão ou uma região, precisará especificá-las explicitamente nos exemplos de código relevantes. Para obter mais informações sobre provedores de credenciais padronizados, consulte Ferramentas AWS SDKs e provedores de credenciais padronizados.
nota
Se você usar o OpenAI SDK, só poderá se autenticar com uma chave de API do Amazon Bedrock e deverá definir explicitamente o endpoint do Amazon Bedrock.
Expanda a seção do exemplo que você deseja ver:
Para ver exemplos de uso da API OpenAI Create Chat Completion, escolha a guia do seu método preferido e siga as etapas:
Escolha a guia do seu método preferido e siga as etapas:
Ao usar a API unificada do Converse, você precisa mapear os campos de conclusão do OpenAI Create chat para o campo correspondente no corpo da solicitação do Converse.
Por exemplo, compare o corpo da solicitação de conclusão de bate-papo a seguir com o corpo da solicitação Converse correspondente:
Escolha a guia do seu método preferido e siga as etapas:
Aplique uma grade de proteção ao executar a invocação do modelo especificando o ID da grade de proteção, a versão e se deve ou não habilitar o rastreamento da grade de proteção no cabeçalho de uma solicitação de invocação do modelo.
Escolha a guia do seu método preferido e siga as etapas:
Para ver exemplos de uso de grades de proteção com a conclusão de OpenAI bate-papos, escolha a guia do seu método preferido e siga as etapas:
A inferência em lote permite que você execute a inferência de modelos de forma assíncrona com vários prompts. Para executar a inferência em lote com um OpenAI modelo, você faz o seguinte:
-
Crie um arquivo JSONL e preencha-o com pelo menos o número mínimo de objetos JSON, cada um separado por uma nova linha. Cada
modelInput
objeto deve estar em conformidade com o formato do corpo da solicitação de conclusão de OpenAI criação de bate-papo. Veja a seguir um exemplo das duas primeiras linhas de um arquivo JSONL contendo corpos de solicitação para. OpenAI { "recordId": "RECORD1", "modelInput": { "messages": [ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "Can you generate a question with a factual answer?" } ], "max_completion_tokens": 1000 } } { "recordId": "RECORD2", "modelInput": { "messages": [ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "What is the weather like today?" } ], "max_completion_tokens": 1000 } } ...
nota
O
model
campo é opcional porque o serviço de inferência em lote o inserirá para você com base no cabeçalho, caso você o omita.Verifique se o arquivo JSONL está em conformidade com as cotas de inferência em lote, conforme descrito em. Formatar e carregar os dados de inferência
-
Faça upload do arquivo para um bucket do Amazon S3.
-
Envie uma CreateModelInvocationJobsolicitação com um endpoint do plano de controle Amazon Bedrock com o bucket S3 da etapa anterior especificada no
inputDataConfig
campo e do OpenAI modelo especificado no campo.modelId
Para obter um exemplo de end-to-end código, consulteExemplo de código para inferência em lote. Substitua pelas configurações adequadas para os OpenAI modelos.