Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Modelos de OpenAI
OpenAIofrece los siguientes modelos de peso abierto:
-
gpt-oss-20b
— Un modelo más pequeño optimizado para una latencia más baja y para casos de uso locales o especializados. -
gpt-oss-120b
— Un modelo más grande optimizado para casos de uso de producción y de uso general o de alto razonamiento.
La siguiente tabla resume la información sobre los modelos:
Información | gpt-oss-20b | gpt-oss-120b |
---|---|---|
Fecha de publicación | 5 de agosto de 2025 | 5 de agosto de 2025 |
ID del modelo | openai.gpt-oss-20b-1:0 | openai.gpt-oss-120b-1:0 |
ID de producto | N/A | N/A |
Se admiten modalidades de entrada | Texto | Texto |
Modalidades de salida compatibles | Texto | Texto |
Ventana de contexto | 128.000 | 128.000 |
Los OpenAI modelos admiten las siguientes funciones:
-
Invocación de modelo con las siguientes operaciones:
-
Preserva la aplicación mediante el uso de encabezados en las operaciones de invocación del modelo.
OpenAIcuerpo de la solicitud
Para obtener información sobre los parámetros del cuerpo de la solicitud y sus descripciones, consulte Crear la finalización del chat
Utilice los campos del cuerpo de la solicitud de las siguientes maneras:
-
En una InvokeModelsolicitud de finalización de OpenAI chat, incluya los campos en el cuerpo de la solicitud.
-
En una solicitud de Converse, haga lo siguiente:
-
Mapee
messages
lo siguiente:-
Para cada mensaje cuya función sea
developer
, añada lacontent
a SystemContentBlocka lasystem
matriz. -
Para cada mensaje cuya función sea
user
oassistant
, añada lacontent
a a ContentBlocken elcontent
campo y especifique larole
en elrole
campo de un mensaje de lamessages
matriz.
-
-
Asigne los valores de los siguientes campos a los campos correspondientes del
inferenceConfig
objeto:Campo OpenAI Campo inverso max_completion_tokens maxTokens parar stopSequences temperature temperature top_p topP -
Incluya cualquier otro campo en el objeto.
additionalModelRequestFields
-
Consideraciones a la hora de crear el cuerpo de la solicitud
-
Los OpenAI modelos solo admiten la entrada y salida de texto.
-
El valor del
model
campo debe coincidir con el del encabezado. Puede omitir este campo para que se rellene automáticamente con el mismo valor que el encabezado. -
El valor del
stream
campo debe coincidir con la operación de API que utilices. Puedes omitir este campo para que se rellene automáticamente con el valor correcto.-
Si lo usa InvokeModel, el
stream
valor debe serfalse
.
-
OpenAIcuerpo de respuesta
El cuerpo de la respuesta de OpenAI los modelos se ajusta al objeto de finalización del chat devuelto porOpenAI. Para obtener más información sobre los campos de respuesta, consulte El objeto de finalización del chat
nota
Si lo usaInvokeModel
, el razonamiento del modelo, rodeado de <reasoning>
etiquetas, precede al contenido textual de la respuesta.
Ejemplo de uso de modelos OpenAI
En esta sección se proporcionan algunos ejemplos de cómo utilizar los OpenAI modelos.
Antes de probar estos ejemplos, compruebe que ha cumplido los requisitos previos:
-
Autenticación: puede autenticarse con sus AWS credenciales o con una clave de API de Amazon Bedrock.
Configure sus AWS credenciales o genere una clave de API de Amazon Bedrock para autenticar su solicitud.
Para obtener más información sobre cómo configurar sus AWS credenciales, consulte Acceso programático con AWS credenciales de seguridad.
Para obtener más información sobre las claves de API de Amazon Bedrock y cómo generarlas, consulteGenere claves de API de Amazon Bedrock para autenticarse fácilmente en la API de Amazon Bedrock.
nota
Si utilizas la API de finalización de OpenAI chats, solo puedes autenticarte con una clave de API de Amazon Bedrock.
-
Punto final: busque el punto de enlace que corresponda a la AWS región para usarlo en los puntos de enlace y las cuotas de Amazon Bedrock Runtime. Si usa un AWS SDK, es posible que solo necesite especificar el código de región y no todo el punto final al configurar el cliente. Debe usar un punto final asociado a una región compatible con el modelo utilizado en el ejemplo.
-
Acceso al modelo: solicite el acceso a un OpenAI modelo. Para obtener más información, consulte Adición o eliminación del acceso a los modelos fundacionales de Amazon Bedrock.
-
(Si el ejemplo usa un SDK) Instale el SDK: después de la instalación, configure las credenciales predeterminadas y una AWS región predeterminada. Si no configuras las credenciales predeterminadas o una región, tendrás que especificarlas de forma explícita en los ejemplos de código correspondientes. Para obtener más información sobre los proveedores de credenciales estandarizados, consulte Proveedores de credenciales estandarizados AWS SDKs y Herramientas.
nota
Si usa el OpenAI SDK, solo puede autenticarse con una clave de API de Amazon Bedrock y debe configurar explícitamente el punto de conexión de Amazon Bedrock.
Amplíe la sección para ver el ejemplo que desee ver:
Para ver ejemplos del uso de la API OpenAI Create Chats, elige la pestaña del método que prefieras y, a continuación, sigue los pasos:
Elige la pestaña del método que prefieras y, a continuación, sigue los pasos:
Cuando utilizas la API unificada de Converse, debes asignar los campos para completar el OpenAI chat a su campo correspondiente en el cuerpo de la solicitud de Converse.
Por ejemplo, compara el siguiente cuerpo de la solicitud de finalización del chat con el cuerpo de la solicitud de Converse correspondiente:
Elige la pestaña del método que prefieras y, a continuación, sigue los pasos:
Aplique una barandilla al ejecutar la invocación del modelo especificando el ID de la barandilla, la versión y si se debe habilitar o no el rastreo de la barandilla en el encabezado de una solicitud de invocación de modelo.
Elija la pestaña correspondiente al método que prefiera y, a continuación, siga estos pasos:
Para ver ejemplos del uso de barandillas al finalizar el OpenAI chat, elige la pestaña correspondiente al método que prefieras y, a continuación, sigue los pasos:
La inferencia por lotes le permite ejecutar la inferencia de modelos de forma asíncrona con múltiples solicitudes. Para ejecutar la inferencia por lotes con un OpenAI modelo, haga lo siguiente:
-
Cree un archivo JSONL y llénelo con al menos el número mínimo de objetos JSON, cada uno separado por una nueva línea. Cada
modelInput
objeto debe ajustarse al formato del cuerpo de la solicitud de OpenAIcreación de un chat.A continuación se muestra un ejemplo de las dos primeras líneas de un archivo JSONL que contiene los cuerpos de las solicitudes. OpenAI { "recordId": "RECORD1", "modelInput": { "messages": [ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "Can you generate a question with a factual answer?" } ], "max_completion_tokens": 1000 } } { "recordId": "RECORD2", "modelInput": { "messages": [ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "What is the weather like today?" } ], "max_completion_tokens": 1000 } } ...
nota
El
model
campo es opcional porque el servicio de inferencia por lotes lo insertará automáticamente en función del encabezado si lo omite.Compruebe que el archivo JSONL cumpla con las cuotas de inferencia por lotes que se indican en. Formateo y carga de los datos de la inferencia por lotes
-
Cargue el archivo en un bucket de Amazon S3.
-
Envíe una CreateModelInvocationJobsolicitud con un punto final del plano de control de Amazon Bedrock con el bucket S3 del paso anterior especificado en el
inputDataConfig
campo y el OpenAI modelo especificado en elmodelId
campo.
Para ver un ejemplo end-to-end de código, consulteEjemplo de código para la inferencia por lotes. Sustitúyalo por las configuraciones adecuadas para los OpenAI modelos.