Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
OpenAImodelli
OpenAIoffre i seguenti modelli a peso aperto:
-
gpt-oss-20b
— Un modello più piccolo ottimizzato per una latenza inferiore e casi d'uso locali o specializzati. -
gpt-oss-120b
— Un modello più grande ottimizzato per la produzione e per casi d'uso generici o ad alto ragionamento.
La tabella seguente riassume le informazioni sui modelli:
Informazioni | gpt-oss-20b | gpt-oss-120b |
---|---|---|
Data di rilascio | 5 agosto 2025 | 5 agosto 2025 |
ID del modello | openai.gpt-oss-20b-1:0 | openai.gpt-oss-120b-1:0 |
ID del prodotto | N/D | N/D |
Modalità di input supportate | Testo | Testo |
Modalità di output supportate | Testo | Testo |
Finestra contestuale | 128.000 | 128.000 |
I OpenAI modelli supportano le seguenti funzionalità:
-
Richiamo del modello con le seguenti operazioni:
-
Applicazione Guardrails tramite l'uso di intestazioni nelle operazioni di invocazione del modello.
OpenAIcorpo della richiesta
Per informazioni sui parametri nel corpo della richiesta e sulle relative descrizioni, consulta Creare il completamento della chat
Utilizza i campi del corpo della richiesta nei seguenti modi:
-
In una richiesta InvokeModelo OpenAI Chat Completions, includi i campi nel corpo della richiesta.
-
In una richiesta Converse, procedi come segue:
-
Mappali
messages
come segue:-
Per ogni messaggio il cui ruolo è
developer
, aggiungi lacontent
a SystemContentBlocknell'system
array. -
Per ogni messaggio il cui ruolo è
user
oassistant
, aggiungicontent
a a ContentBlocknelcontent
campo e specifica ilrole
nelrole
campo di un messaggio nell'messages
array.
-
-
Mappate i valori dei seguenti campi ai campi corrispondenti nell'
inferenceConfig
oggetto:Campo OpenAI Campo converso max_completion_tokens maxTokens arresta Stop Sequences temperature temperature top_p topP -
Includi qualsiasi altro campo nell'
additionalModelRequestFields
oggetto.
-
Considerazioni sulla costruzione del corpo della richiesta
-
I OpenAI modelli supportano solo l'immissione e l'output di testo.
-
Il valore nel
model
campo deve corrispondere a quello nell'intestazione. Puoi omettere questo campo per farlo compilare automaticamente con lo stesso valore dell'intestazione. -
Il valore nel
stream
campo deve corrispondere all'operazione API utilizzata. È possibile omettere questo campo per consentire che venga compilato automaticamente con il valore corretto.-
Se si utilizza InvokeModel, il
stream
valore deve essere.false
-
OpenAIcorpo di risposta
Il corpo della risposta per OpenAI i modelli è conforme all'oggetto di completamento della chat restituito daOpenAI. Per ulteriori informazioni sui campi di risposta, consulta L'oggetto di completamento della chat
Nota
Se lo usiInvokeModel
, il ragionamento del modello, circondato da <reasoning>
tag, precede il contenuto testuale della risposta.
Esempio di utilizzo dei modelli OpenAI
Questa sezione fornisce alcuni esempi di utilizzo dei OpenAI modelli.
Prima di provare questi esempi, verificate di aver soddisfatto i prerequisiti:
-
Autenticazione: puoi autenticarti con AWS le tue credenziali o con una chiave API Amazon Bedrock.
Configura AWS le tue credenziali o genera una chiave API Amazon Bedrock per autenticare la tua richiesta.
Per ulteriori informazioni sulla configurazione delle AWS credenziali, consulta Accesso programmatico con credenziali di sicurezza. AWS
Per ulteriori informazioni sulle chiavi API di Amazon Bedrock e su come generarle, consultaGenera chiavi API Amazon Bedrock per autenticarti facilmente nell'API Amazon Bedrock.
Nota
Se utilizzi l'API OpenAI Chat completions, puoi autenticarti solo con una chiave API Amazon Bedrock.
-
Endpoint: trova l'endpoint che corrisponde alla AWS regione da utilizzare negli endpoint e nelle quote di Amazon Bedrock Runtime. Se utilizzi un AWS SDK, potresti dover specificare solo il codice regionale e non l'intero endpoint quando configuri il client. È necessario utilizzare un endpoint associato a una regione supportata dal modello utilizzato nell'esempio.
-
Accesso al modello: richiedi l'accesso a un OpenAI modello. Per ulteriori informazioni, consulta Aggiungere o rimuovere l'accesso ai modelli Amazon Bedrock Foundation.
-
(Se l'esempio utilizza un SDK) Installa l'SDK: dopo l'installazione, imposta le credenziali predefinite e una regione predefinite. AWS Se non configuri le credenziali predefinite o una regione, dovrai specificarle esplicitamente negli esempi di codice pertinenti. Per ulteriori informazioni sui provider di credenziali standardizzati, consulta AWS SDKs and Tools (fornitori di credenziali standardizzati).
Nota
Se utilizzi l'OpenAISDK, puoi autenticarti solo con una chiave API Amazon Bedrock e devi impostare esplicitamente l'endpoint Amazon Bedrock.
Espandi la sezione per l'esempio che vuoi vedere:
Per vedere esempi di utilizzo dell'API OpenAI Create chat completion, scegli la scheda corrispondente al tuo metodo preferito, quindi segui i passaggi:
Scegli la scheda relativa al metodo che preferisci, quindi segui i passaggi:
Quando utilizzi l'API Converse unificata, devi mappare i campi di completamento di OpenAI Create chat al campo corrispondente nel corpo della richiesta Converse.
Ad esempio, confronta il seguente corpo della richiesta di completamento della chat con il corpo della richiesta Converse corrispondente:
Scegli la scheda relativa al metodo che preferisci, quindi segui i passaggi:
Applica un guardrail quando esegui l'invocazione del modello specificando l'ID del guardrail, la versione e se abilitare o meno la traccia del guardrail nell'intestazione di una richiesta di invocazione del modello.
Scegliete la scheda relativa al metodo preferito, quindi seguite i passaggi:
Per vedere esempi di utilizzo dei guardrail con il completamento delle OpenAI chat, scegli la scheda corrispondente al metodo che preferisci, quindi segui i passaggi:
L'inferenza in batch consente di eseguire l'inferenza del modello in modo asincrono con più prompt. Per eseguire l'inferenza in batch con un modello, effettuate le seguenti operazioni: OpenAI
-
Create un file JSONL e popolatelo con almeno il numero minimo di oggetti JSON, ciascuno separato da una nuova riga. Ogni
modelInput
oggetto deve essere conforme al formato del corpo della richiesta di completamento della OpenAIcreazionedella chat. Di seguito viene mostrato un esempio delle prime due righe di un file JSONL contenente i corpi di richiesta per. OpenAI { "recordId": "RECORD1", "modelInput": { "messages": [ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "Can you generate a question with a factual answer?" } ], "max_completion_tokens": 1000 } } { "recordId": "RECORD2", "modelInput": { "messages": [ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "What is the weather like today?" } ], "max_completion_tokens": 1000 } } ...
Nota
Il
model
campo è facoltativo perché il servizio di inferenza in batch lo inserirà automaticamente in base all'intestazione se lo si omette.Verifica che il tuo file JSONL sia conforme alle quote di inferenza in batch come indicato in. Formatta e carica i dati di inferenza in batch
-
Carica il file in un bucket Amazon S3.
-
Invia una CreateModelInvocationJobrichiesta con un endpoint del piano di controllo Amazon Bedrock con il bucket S3 del passaggio precedente specificato nel
inputDataConfig
campo e il OpenAI modello specificato nel campo.modelId
Per un esempio di end-to-end codice, consulta. Esempio di codice per l'inferenza in batch Sostituire con le configurazioni appropriate per i OpenAI modelli.