Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
OpenAImodèles
OpenAIpropose les modèles à poids ouvert suivants :
-
gpt-oss-20b
— Un modèle plus petit optimisé pour une latence plus faible et des cas d'utilisation locaux ou spécialisés. -
gpt-oss-120b
— Un modèle plus grand optimisé pour la production et les cas d'utilisation à usage général ou exigeant un raisonnement poussé.
Le tableau suivant récapitule les informations relatives aux modèles :
Informations | gpt-oss-20b | gpt-oss-120b |
---|---|---|
Date de publication | 5 août 2025 | 5 août 2025 |
ID du modèle | openai.gpt-oss-20b-1:0 | openai.gpt-oss-120b-1:0 |
ID produit | N/A | N/A |
Modalités de saisie prises en charge | Texte | Texte |
Modalités de sortie prises en charge | Texte | Texte |
Fenêtre contextuelle | 128 000 | 128 000 |
Les OpenAI modèles sont compatibles avec les fonctionnalités suivantes :
-
Modèle d'invocation avec les opérations suivantes :
-
Maintient l'application grâce à l'utilisation d'en-têtes dans les opérations d'invocation du modèle.
OpenAIcorps de la demande
Pour plus d'informations sur les paramètres du corps de la demande et leurs descriptions, consultez la section Créer une fin de chat
Utilisez les champs du corps de la demande de la manière suivante :
-
Dans une demande InvokeModelou OpenAI Chat Completions, incluez les champs dans le corps de la demande.
-
Dans une requête Converse, procédez comme suit :
-
Cartographiez le
messages
comme suit :-
Pour chaque message dont le rôle est
developer
, ajoutez lecontent
a SystemContentBlockdans lesystem
tableau. -
Pour chaque message dont le rôle est
user
ouassistant
, ajoutez lecontent
à a ContentBlockdans lecontent
champ et spécifiez lerole
dans lerole
champ d'un message dans lemessages
tableau.
-
-
Associez les valeurs des champs suivants aux champs correspondants de l'
inferenceConfig
objet :OpenAI field Champ Converse max_completion_tokens maxTokens stop Séquences d'arrêt temperature temperature top_p topP -
Incluez tout autre champ dans l'
additionalModelRequestFields
objet.
-
Considérations relatives à la construction du corps de la demande
-
Les OpenAI modèles ne prennent en charge que la saisie et la sortie de texte.
-
La valeur du
model
champ doit correspondre à celle de l'en-tête. Vous pouvez omettre ce champ pour qu'il soit automatiquement rempli avec la même valeur que l'en-tête. -
La valeur du
stream
champ doit correspondre à l'opération d'API que vous utilisez. Vous pouvez omettre ce champ pour qu'il soit automatiquement renseigné avec la valeur correcte.-
Si vous utilisez InvokeModel, la
stream
valeur doit êtrefalse
.
-
OpenAIorganisme de réponse
Le corps de réponse pour les OpenAI modèles est conforme à l'objet de fin de discussion renvoyé parOpenAI. Pour plus d'informations sur les champs de réponse, voir L'objet de fin de discussion
Note
Si vous l'utilisezInvokeModel
, le raisonnement du modèle, entouré de <reasoning>
balises, précède le contenu textuel de la réponse.
Exemple d'utilisation de OpenAI modèles
Cette section fournit des exemples d'utilisation des OpenAI modèles.
Avant d'essayer ces exemples, vérifiez que vous avez rempli les conditions requises :
-
Authentification — Vous pouvez vous authentifier avec vos AWS informations d'identification ou avec une clé d'API Amazon Bedrock.
Configurez vos AWS informations d'identification ou générez une clé d'API Amazon Bedrock pour authentifier votre demande.
Pour en savoir plus sur la configuration de vos AWS informations d'identification, consultez la section Accès par programmation avec informations d'identification AWS de sécurité.
Pour en savoir plus sur les clés d'API Amazon Bedrock et sur la façon de les générer, consultezGénérez des clés d'API Amazon Bedrock pour vous authentifier facilement auprès de l'API Amazon Bedrock.
Note
Si vous utilisez l'API OpenAI Chat completions, vous ne pouvez vous authentifier qu'avec une clé d'API Amazon Bedrock.
-
Point de terminaison : recherchez le point de terminaison correspondant à la AWS région à utiliser dans les points de terminaison et les quotas Amazon Bedrock Runtime. Si vous utilisez un AWS SDK, il se peut que vous deviez uniquement spécifier le code de région et non le point de terminaison complet lors de la configuration du client. Vous devez utiliser un point de terminaison associé à une région prise en charge par le modèle utilisé dans l'exemple.
-
Accès au modèle — Demande l'accès à un OpenAI modèle. Pour de plus amples informations, veuillez consulter Ajouter ou supprimer l'accès aux modèles de fondation Amazon Bedrock.
-
(Si l'exemple utilise un SDK) Installez le SDK : après l'installation, configurez les informations d'identification par défaut et une région par défaut AWS . Si vous ne configurez pas d'informations d'identification par défaut ou de région, vous devrez les spécifier explicitement dans les exemples de code pertinents. Pour plus d'informations sur les fournisseurs d'informations d'identification standardisées, voir AWS SDKs et Outils fournisseurs d'informations d'identification standardisés.
Note
Si vous utilisez le OpenAI SDK, vous ne pouvez vous authentifier qu'avec une clé d'API Amazon Bedrock et vous devez définir explicitement le point de terminaison Amazon Bedrock.
Développez la section correspondant à l'exemple que vous souhaitez voir :
Pour voir des exemples d'utilisation de l'API OpenAI Create chat complétion, choisissez l'onglet correspondant à votre méthode préférée, puis suivez les étapes suivantes :
Choisissez l'onglet correspondant à votre méthode préférée, puis suivez les étapes suivantes :
Lorsque vous utilisez l'API Converse unifiée, vous devez associer les champs de fin de discussion OpenAI Create chat au champ correspondant dans le corps de la requête Converse.
Par exemple, comparez le corps de demande de fin de chat suivant au corps de demande Converse correspondant :
Choisissez l'onglet correspondant à votre méthode préférée, puis suivez les étapes suivantes :
Appliquez un garde-corps lors de l'exécution de l'invocation du modèle en spécifiant l'ID et la version du garde-corps et en indiquant s'il faut activer ou non le suivi du garde-corps dans l'en-tête d'une demande d'invocation de modèle.
Choisissez l'onglet correspondant à votre méthode préférée, puis suivez les étapes suivantes :
Pour voir des exemples d'utilisation de barrières de sécurité lors de la fin d'une OpenAI discussion, choisissez l'onglet correspondant à votre méthode préférée, puis suivez les étapes ci-dessous :
L'inférence par lots vous permet d'exécuter l'inférence de modèle de manière asynchrone à l'aide de plusieurs invites. Pour exécuter l'inférence par lots avec un OpenAI modèle, procédez comme suit :
-
Créez un fichier JSONL et remplissez-le avec au moins le nombre minimum d'objets JSON, séparés chacun par une nouvelle ligne. Chaque
modelInput
objet doit être conforme au format du corps de la demande de fin de OpenAI création de chat. Voici un exemple des deux premières lignes d'un fichier JSONL contenant les corps de requête pour. OpenAI { "recordId": "RECORD1", "modelInput": { "messages": [ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "Can you generate a question with a factual answer?" } ], "max_completion_tokens": 1000 } } { "recordId": "RECORD2", "modelInput": { "messages": [ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "What is the weather like today?" } ], "max_completion_tokens": 1000 } } ...
Note
Le
model
champ est facultatif car le service d'inférence par lots l'insérera pour vous en fonction de l'en-tête si vous l'omettez.Vérifiez que votre fichier JSONL est conforme aux quotas d'inférence par lots, comme indiqué dans. Formatez et téléchargez vos données d'inférence par lots
-
Téléchargez le fichier dans un compartiment Amazon S3.
-
Envoyez une CreateModelInvocationJobdemande avec un point de terminaison du plan de contrôle Amazon Bedrock avec le compartiment S3 de l'étape précédente spécifiée dans le
inputDataConfig
champ et le OpenAI modèle spécifié dans lemodelId
champ.
Pour un exemple de end-to-end code, voirExemple de code pour l'inférence par lots. Remplacez-le par les configurations appropriées pour les OpenAI modèles.