Seleziona le tue preferenze relative ai cookie

Utilizziamo cookie essenziali e strumenti simili necessari per fornire il nostro sito e i nostri servizi. Utilizziamo i cookie prestazionali per raccogliere statistiche anonime in modo da poter capire come i clienti utilizzano il nostro sito e apportare miglioramenti. I cookie essenziali non possono essere disattivati, ma puoi fare clic su \"Personalizza\" o \"Rifiuta\" per rifiutare i cookie prestazionali.

Se sei d'accordo, AWS e le terze parti approvate utilizzeranno i cookie anche per fornire utili funzionalità del sito, ricordare le tue preferenze e visualizzare contenuti pertinenti, inclusa la pubblicità pertinente. Per continuare senza accettare questi cookie, fai clic su \"Continua\" o \"Rifiuta\". Per effettuare scelte più dettagliate o saperne di più, fai clic su \"Personalizza\".

Prepara i tuoi set di dati di allenamento per la messa a punto e il pre-addestramento continuo

Modalità Focus
Prepara i tuoi set di dati di allenamento per la messa a punto e il pre-addestramento continuo - Amazon Bedrock

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Prima di iniziare un lavoro di personalizzazione del modello, è necessario preparare almeno un set di dati di addestramento. Il supporto di un set di dati di convalida e il formato del set di dati di formazione e convalida dipendono dai seguenti fattori.

  • Il tipo di lavoro di personalizzazione di fine tuning (perfezionamento o pre-formazione continua).

  • Le modalità di input e output dei dati.

Modalità supportate per la messa a punto e la formazione preliminare continua

La tabella seguente mostra le modalità di input e output supportate dalla distillazione con ciascun modello:

  • Ottimizzazione: Text-to-Text — Il modello genera un output testuale dall'input testuale apprendendo modelli basati sul linguaggio come la grammatica, la semantica o il significato contestuale. La messa a punto consente al modello di eseguire attività specifiche come il riepilogo, la traduzione o la risposta a domande.

  • Ottimizzazione: Text-Image-to-Text — Il modello genera un output testuale da input di testo e immagine, supportando attività come la didascalia delle immagini o la risposta visiva alle domande. La messa a punto migliora la capacità del modello di interpretare e combinare dati multimodali per migliorare le prestazioni specifiche delle attività.

  • Ottimizzazione: Text-to-Image — Il modello genera immagini in uscita da istruzioni testuali traducendo il testo descrittivo in rappresentazioni visive dettagliate. La messa a punto adatta il modello per produrre immagini specifiche del dominio o stilisticamente coerenti.

  • Ottimizzazione: Image-to-Embeddings — Il modello genera incorporamenti (rappresentazioni numeriche) dagli input di immagini per attività come la classificazione, il recupero o l'allineamento multimodale. La messa a punto ottimizza lo spazio di incorporamento per garantire precisione e pertinenza in applicazioni specifiche.

  • Ottimizzazione: messaggistica a turno singolo: il modello genera risposte concise e contestualmente accurate per messaggi di input isolati a turno singolo. La messa a punto migliora la capacità del modello di gestire in modo efficace gli scambi conversazionali una tantum.

  • Ottimizzazione: messaggistica a più turni: il modello genera risposte coerenti e contestualmente consapevoli nelle conversazioni a più turni mantenendo il contesto tra gli scambi. La messa a punto migliora la capacità del modello di gestire il flusso di dialogo e di mantenere il contesto durante conversazioni prolungate.

Nome modello Ottimizzazione: ext-to-text Ottimizzazione: i mage-text-to-text Ottimizzazione: & Text-to-image Image-to-embeddings Ottimizzazione: messaggistica a turno singolo Ottimizzazione: messaggistica a turni multipli Formazione preliminare continua: ext-to-text
Amazon Titan Text G1 - Express No No No No
Amazon Titan Text G1 - Lite No No No No
Amazon Titan Text Premier No No No No No
Amazon Titan Image Generator G1 V1 No No No No
Amazon Titan Multimodal Embeddings G1 G1 No No No No
Anthropic Claude 3 Haiku No No No No
Cohere Command No No No No No
Cohere Command Light No No No No No
Meta Llama 3.1 8B Instruct No No No No No
Meta Llama 3.1 70B Instruct No No No No No
Meta Llama 3.2 1B Instruct No No No Sì (formato API Converse) Sì (formato API Converse) No
Meta Llama 3.2 3B Instruct No No No Sì (formato API Converse) Sì (formato API Converse) No
Meta Llama 3.2 11B Instruct Vista No No Sì (formato API Converse) Sì (formato API Converse) No
Meta Llama 3.2 90B Instruct Vista No No Sì (formato API Converse) Sì (formato API Converse) No

Per visualizzare le quote predefinite applicabili ai set di dati di formazione e convalida utilizzati per personalizzare diversi modelli, consulta la sezione Somma delle quote dei record di formazione e convalida negli endpoint Amazon Bedrock e nelle quote nel. Riferimenti generali di AWS

Prepara i set di dati per la messa a punto

Per preparare set di dati di addestramento e convalida per il modello personalizzato, create .jsonl dei file, ogni riga dei quali è un oggetto JSON corrispondente a un record. I file creati devono essere conformi al formato del metodo e del modello di personalizzazione scelti e i record in essi contenuti devono essere conformi ai requisiti di dimensione.

Il formato dipende dalla modalità di input e output del modello. Scegliete la scheda relativa al metodo preferito, quindi seguite i passaggi:

Text-to-text

Per la messa a punto dei text-to-text modelli, ogni oggetto JSON è un esempio contenente campi strutturati progettati per guidare il modello verso la generazione dell'output testuale desiderato in base a un prompt testuale fornito. Il formato dei dati varia a seconda del caso d'uso, ampiamente classificato in casi d'uso non conversazionali e conversazionali. Le attività non conversazionali prevedono istruzioni e output autonomi, mentre le attività conversazionali possono essere ulteriormente suddivise in scambi a turno singolo, in cui il modello risponde all'input di un singolo utente, e dialoghi a più turni, in cui il modello mantiene il contesto tra più scambi.

Attività non conversazionali

Le attività non conversazionali implicano la generazione di un singolo output per un determinato input. Ogni esempio di set di dati include un prompt campo contenente il testo di input e un completion campo con l'output previsto. Questo formato supporta una serie di attività come la risposta a domande, il riepilogo, la traduzione, il completamento del testo e l'estrazione di informazioni.

Formato di esempio

{"prompt": "What is the capital of France?", "completion": "The capital of France is Paris."} {"prompt": "Summarize the article about climate change.", "completion": "Climate change refers to the long-term alteration of temperature and typical weather patterns in a place."}

Utilizza circa 6 caratteri per token per stimare il numero di token per la pianificazione delle dimensioni del set di dati.

Formato API Converse (giro singolo e giro multiplo)

Per utilizzare l'API Converse, devi chiamare le ConverseStream operazioni Converse o per inviare messaggi a un modello. Per chiamareConverse, è necessaria l'autorizzazione per l'bedrock:InvokeModeloperazione. Per chiamareConverseStream, è necessaria l'autorizzazione per l'bedrock:InvokeModelWithResponseStreamoperazione. Per ulteriori informazioni, consulta Utilizzo di Converse API.

Formato di esempio

{ "schemaVersion": "bedrock-conversation-2024", "system": [ { "text": "You are a digital assistant with a friendly personality" } ], "messages": [ { "role": "user", "content": [ { "text": "What is the capital of Mars?" } ] }, { "role": "assistant", "content": [ { "text": "Mars does not have a capital. Perhaps it will one day." } ] } ] }

Per Anthropic Claude 3 Haiku solo: conversazioni a turno singolo

Le attività di conversazione a turno singolo implicano scambi isolati, in cui il modello genera una risposta basata esclusivamente sull'input corrente dell'utente senza considerare il contesto precedente. Ogni esempio di set di dati utilizza un array di messaggi, con ruoli alternati di e. user assistant

Formato

{"system": "<system message>","messages":[{"role": "user", "content": "<user query>"},{"role": "assistant", "content": "<expected generated text>"}]}

Esempio

{"system": "You are an helpful assistant.","messages":[{"role": "user", "content": "what is AWS"},{"role": "assistant", "content": "it's Amazon Web Services."}]}

Per Anthropic Claude 3 Haiku solo: conversazioni a più turni

Le attività conversazionali a più turni implicano dialoghi estesi in cui il modello deve generare risposte preservando il contesto degli scambi precedenti. Questo formato cattura la natura dinamica delle attività interattive, come l'assistenza clienti o le discussioni complesse.

Formato

{"system": "<system message>","messages":[{"role": "user", "content": "<user query 1>"},{"role": "assistant", "content": "<expected generated text 1>"}, {"role": "user", "content": "<user query 2>"},{"role": "assistant", "content": "<expected generated text 2>"}]}

Esempio

{"system": "system message","messages":[{"role": "user", "content": "Hello there."},{"role": "assistant", "content": "Hi, how can I help you?"},{"role": "user", "content": "what are LLMs?"},{"role": "assistant", "content": "LLM means large language model."},]}
Image-text-to-text

Per la messa a punto dei image-text-to-text modelli, ogni oggetto JSON è un esempio contenente una conversazione strutturata come una messages matrice, costituita da oggetti JSON alternati che rappresentano gli input dell'utente e le risposte dell'assistente. Gli input dell'utente possono includere sia testo che immagini, mentre le risposte dell'assistente sono sempre testuali. Questa struttura supporta flussi conversazionali a turno singolo e a più turni, consentendo al modello di gestire diverse attività in modo efficace. Formati di immagine supportati per Meta Llama-3.2 11B Vision Instruct e Meta Llama-3.2 90B Vision Instruct includono: gifjpeg,png, ewebp.

Per consentire ad Amazon Bedrock di accedere ai file di immagine, aggiungi una policy IAM simile Autorizzazioni per accedere ai file di formazione e convalida e per scrivere file di output in S3 a quella del ruolo del servizio di personalizzazione del modello Amazon Bedrock che hai impostato o che è stato impostato automaticamente per te nella console. I percorsi Amazon S3 che fornisci nel set di dati di addestramento devono trovarsi nelle cartelle specificate nella policy.

Conversazioni a turno singolo

Ogni oggetto JSON per conversazioni a turno singolo è costituito da un messaggio utente e un messaggio di assistente. Il messaggio utente include un campo role impostato su user e un campo content contenente un array con un type campo (testo o immagine) che descrive la modalità di input. Per gli input di testo, il content campo include un text campo con la domanda o il prompt dell'utente. Per gli input di immagini, il content campo specifica l'immagine format (ad esempio, jpeg, png) e uri indica source la posizione dell'immagine in Amazon S3. uriRappresenta il percorso univoco dell'immagine archiviata in un bucket Amazon S3, in genere nel formato. s3://<bucket-name>/<path-to-file> Il messaggio dell'assistente include un role campo impostato su assistant e un content campo contenente un array con un type campo impostato su testo e un text campo contenente la risposta generata dall'assistente.

Formato di esempio

{ "schemaVersion": "bedrock-conversation-2024", "system": [{ "text": "You are a smart assistant that answers questions respectfully" }], "messages": [{ "role": "user", "content": [{ "text": "What does the text in this image say?" }, { "image": { "format": "png", "source": { "s3Location": { "uri": "s3://your-bucket/your-path/your-image.png", "bucketOwner": "your-aws-account-id" } } } } ] }, { "role": "assistant", "content": [{ "text": "The text in the attached image says 'LOL'." }] } ] }

Conversazioni a più turni

Ogni oggetto JSON per conversazioni a turni multipli contiene una sequenza di messaggi con ruoli alternati, in cui i messaggi degli utenti e quelli degli assistenti sono strutturati in modo coerente per consentire scambi coerenti. I messaggi utente includono un role campo impostato su user e un content campo che descrive la modalità di input. Per gli input di testo, il content campo include un text campo con la domanda o il follow-up dell'utente, mentre per gli input di immagini, specifica l'immagine format e uri indica la source posizione dell'immagine in Amazon S3. urifunge da identificatore univoco nel formato s3://<bucket-name>/< path-to-file > e consente al modello di accedere all'immagine dal bucket Amazon S3 designato. I messaggi dell'assistente includono un role campo impostato su assistant e un content campo contenente un array con un type campo impostato su testo e un text campo contenente la risposta generata dall'assistente. Le conversazioni possono estendersi su più scambi, permettendo all'assistente di mantenere il contesto e fornire risposte coerenti per tutta la durata.

Formato di esempio

{ "schemaVersion": "bedrock-conversation-2024", "system": [{ "text": "You are a smart assistant that answers questions respectfully" }], "messages": [{ "role": "user", "content": [{ "text": "What does the text in this image say?" }, { "image": { "format": "png", "source": { "s3Location": { "uri": "s3://your-bucket/your-path/your-image.png", "bucketOwner": "your-aws-account-id" } } } } ] }, { "role": "assistant", "content": [{ "text": "The text in the attached image says 'LOL'." }] }, { "role": "user", "content": [{ "text": "What does the text in this image say?" } ] }, { "role": "assistant", "content": [{ "text": "The text in the attached image says 'LOL'." }] } ] }
Text-to-image & Image-to-embeddings
Nota

Amazon Nova i modelli hanno requisiti di messa a punto diversi. Per ottimizzare questi modelli, segui le istruzioni riportate nelle Linee guida per la preparazione dei dati per Amazon Nova.

Per i text-to-image nostri image-to-embedding modelli, prepara un set di dati di addestramento. I set di dati di convalida non sono supportati. Ogni oggetto JSON è un esempio contenente un image-ref URI Amazon S3 per un'immagine e un che potrebbe essere caption un prompt per l'immagine.

L'immagine deve essere in formato PNG o JPEG.

{"image-ref": "s3://bucket/path/to/image001.png", "caption": "<prompt text>"} {"image-ref": "s3://bucket/path/to/image002.png", "caption": "<prompt text>"}{"image-ref": "s3://bucket/path/to/image003.png", "caption": "<prompt text>"}

Di seguito è riportato un esempio:

{"image-ref": "s3://amzn-s3-demo-bucket/my-pets/cat.png", "caption": "an orange cat with white spots"}

Per consentire ad Amazon Bedrock di accedere ai file di immagine, aggiungi una policy IAM simile Autorizzazioni per accedere ai file di formazione e convalida e per scrivere file di output in S3 a quella del ruolo del servizio di personalizzazione del modello Amazon Bedrock che hai impostato o che è stato impostato automaticamente per te nella console. I percorsi Amazon S3 che fornisci nel set di dati di addestramento devono trovarsi nelle cartelle specificate nella policy.

Per la messa a punto dei text-to-text modelli, ogni oggetto JSON è un esempio contenente campi strutturati progettati per guidare il modello verso la generazione dell'output testuale desiderato in base a un prompt testuale fornito. Il formato dei dati varia a seconda del caso d'uso, ampiamente classificato in casi d'uso non conversazionali e conversazionali. Le attività non conversazionali prevedono istruzioni e output autonomi, mentre le attività conversazionali possono essere ulteriormente suddivise in scambi a turno singolo, in cui il modello risponde all'input di un singolo utente, e dialoghi a più turni, in cui il modello mantiene il contesto tra più scambi.

Attività non conversazionali

Le attività non conversazionali implicano la generazione di un singolo output per un determinato input. Ogni esempio di set di dati include un prompt campo contenente il testo di input e un completion campo con l'output previsto. Questo formato supporta una serie di attività come la risposta a domande, il riepilogo, la traduzione, il completamento del testo e l'estrazione di informazioni.

Formato di esempio

{"prompt": "What is the capital of France?", "completion": "The capital of France is Paris."} {"prompt": "Summarize the article about climate change.", "completion": "Climate change refers to the long-term alteration of temperature and typical weather patterns in a place."}

Utilizza circa 6 caratteri per token per stimare il numero di token per la pianificazione delle dimensioni del set di dati.

Formato API Converse (giro singolo e giro multiplo)

Per utilizzare l'API Converse, devi chiamare le ConverseStream operazioni Converse o per inviare messaggi a un modello. Per chiamareConverse, è necessaria l'autorizzazione per l'bedrock:InvokeModeloperazione. Per chiamareConverseStream, è necessaria l'autorizzazione per l'bedrock:InvokeModelWithResponseStreamoperazione. Per ulteriori informazioni, consulta Utilizzo di Converse API.

Formato di esempio

{ "schemaVersion": "bedrock-conversation-2024", "system": [ { "text": "You are a digital assistant with a friendly personality" } ], "messages": [ { "role": "user", "content": [ { "text": "What is the capital of Mars?" } ] }, { "role": "assistant", "content": [ { "text": "Mars does not have a capital. Perhaps it will one day." } ] } ] }

Per Anthropic Claude 3 Haiku solo: conversazioni a turno singolo

Le attività di conversazione a turno singolo implicano scambi isolati, in cui il modello genera una risposta basata esclusivamente sull'input corrente dell'utente senza considerare il contesto precedente. Ogni esempio di set di dati utilizza un array di messaggi, con ruoli alternati di e. user assistant

Formato

{"system": "<system message>","messages":[{"role": "user", "content": "<user query>"},{"role": "assistant", "content": "<expected generated text>"}]}

Esempio

{"system": "You are an helpful assistant.","messages":[{"role": "user", "content": "what is AWS"},{"role": "assistant", "content": "it's Amazon Web Services."}]}

Per Anthropic Claude 3 Haiku solo: conversazioni a più turni

Le attività conversazionali a più turni implicano dialoghi estesi in cui il modello deve generare risposte preservando il contesto degli scambi precedenti. Questo formato cattura la natura dinamica delle attività interattive, come l'assistenza clienti o le discussioni complesse.

Formato

{"system": "<system message>","messages":[{"role": "user", "content": "<user query 1>"},{"role": "assistant", "content": "<expected generated text 1>"}, {"role": "user", "content": "<user query 2>"},{"role": "assistant", "content": "<expected generated text 2>"}]}

Esempio

{"system": "system message","messages":[{"role": "user", "content": "Hello there."},{"role": "assistant", "content": "Hi, how can I help you?"},{"role": "user", "content": "what are LLMs?"},{"role": "assistant", "content": "LLM means large language model."},]}

Prepara i set di dati per la formazione preliminare continua

Per eseguire una formazione preliminare continua su un text-to-text modello, prepara un set di dati di formazione e convalida opzionale. Poiché la formazione preliminare continua prevede dati non etichettati, ogni riga JSON è un esempio contenente solo un campo. input Usa 6 caratteri per token come approssimazione del numero di token. Il formato è il seguente:

{"input": "<input text>"} {"input": "<input text>"} {"input": "<input text>"}

Di seguito è riportato un esempio di elemento che potrebbe essere presente nei dati di addestramento.

{"input": "AWS stands for Amazon Web Services"}

Requisiti del modello per la formazione e la convalida dei set di dati

Seleziona una scheda per visualizzare i requisiti per i set di dati di addestramento e convalida per un modello:

Amazon Nova
Modello Campioni minimi Numero massimo di campioni Lunghezza del contesto
Amazon Nova Micro 100 20 km 32 k
Amazon Nova Lite 8 20.000 (10.000 per documento) 32 k
Amazon Nova Pro 100 10 k 32 k

Vincoli relativi a immagini e video

Dimensione massima del file di immagine 10 MB
Numero massimo di video 1 per campione
Lunghezza o durata massima del video 90 secondi
Dimensione massima del file video 50 MB
Formati di immagine supportati PNG, JPEG, GIF, WEBP
Formati video supportati MOV, MKV, WEBM MP4
Amazon Titan Text Premier
Descrizione Massimo (regolazione fine)
Somma dei token di input e output quando la dimensione del batch è 1 4,096
Somma dei token di input e output quando la dimensione del batch è 2, 3 o 4 N/D
Quota di caratteri per campione nel set di dati Quota di token x 6
Dimensione del file del set di dati di addestramento 1 GB
Dimensione del file del set di dati di convalida 100 MB
Amazon Titan Text G1 - Express
Descrizione Massimo (formazione preliminare continua) Massimo (messa a punto)
Somma dei token di input e output quando la dimensione del batch è 1 4,096 4,096
Somma dei token di input e output quando la dimensione del batch è 2, 3 o 4 2.048 2.048
Quota di caratteri per campione nel set di dati Quota di token x 6 Quota di token x 6
Dimensione del file del set di dati di addestramento 10 GB 1 GB
Dimensione del file del set di dati di convalida 100 MB 100 MB
Amazon Titan Text G1 - Lite
Descrizione Massimo (formazione preliminare continua) Massimo (messa a punto)
Somma dei token di input e output quando la dimensione del batch è 1 o 2 4,096 4,096
Somma dei token di input e output quando la dimensione del batch è 3, 4, 5 o 6 2.048 2.048
Quota di caratteri per campione nel set di dati Quota di token x 6 Quota di token x 6
Dimensione del file del set di dati di addestramento 10 GB 1 GB
Dimensione del file del set di dati di convalida 100 MB 100 MB
Amazon Titan Image Generator G1 V1
Descrizione Minimo (regolazione fine) Massimo (regolazione fine)
Lunghezza del prompt di testo nell'esempio di addestramento, in caratteri 3 1,024
Record in un set di dati di addestramento 5 10.000
Dimensione dell'immagine di input 0 50 MB
Altezza dell'immagine di input in pixel 512 4,096
Larghezza dell'immagine di input in pixel 512 4,096
Pixel totali dell'immagine di input 0 12.582.912
Proporzioni dell'immagine in ingresso 1:4 4:1
Amazon Titan Multimodal Embeddings G1
Descrizione Minimo (messa a punto) Massimo (regolazione fine)
Lunghezza del prompt di testo nell'esempio di addestramento, in caratteri 0 2.560
Record in un set di dati di addestramento 1.000 500.000
Dimensione dell'immagine di input 0 5 MB
Altezza dell'immagine di input in pixel 128 4096
Larghezza dell'immagine di input in pixel 128 4096
Pixel totali dell'immagine di input 0 12.528.912
Proporzioni dell'immagine in ingresso 1:4 4:1
Meta Llama 3.1
Descrizione Minimo (messa a punto) Massimo (regolazione fine)
Token di input 0 16,000
Token di output 0 16,000
Quota di caratteri per campione nel set di dati 0 Quota di token x 6
Somma dei token di input e output 0 16,000
Somma dei record di formazione e convalida 100 10.000 (regolabile utilizzando le quote di servizio)
Meta Llama 3.2

Formati di immagine supportati per Meta Llama-3.2 11B Vision Instruct e Meta Llama-3.2 90B Vision Instruct includono: gifjpeg,png, ewebp. Per stimare la image-to-token conversione durante la messa a punto di questi modelli, puoi usare questa formula come approssimazione:. Tokens = min(2, max(Height // 560, 1)) * min(2, max(Width // 560, 1)) * 1601 Le immagini vengono convertite in circa 1.601-6.404 token in base alle loro dimensioni.

Descrizione Minimo (regolazione fine) Massimo (regolazione fine)
Somma dei token di input e output 0 16.000 (10.000 per Meta Llama 3.2 90B)
Somma dei record di formazione e convalida 100 10.000 (regolabile utilizzando le quote di servizio)
Dimensione dell'immagine di input per Meta Llama 11B and 90B instruct modelli) 0 10 MB
Inserisci l'altezza dell'immagine in pixel per Meta Llama 11B and 90B instruct modelli 10 8192
Inserisci la larghezza dell'immagine in pixel per Meta Llama 11B and 90B instruct modelli 10 8192
Cohere Command
Descrizione Massima (regolazione fine)
Token di input 4,096
Token di output 2.048
Quota di caratteri per campione nel set di dati Quota di token x 6
Record in un set di dati di addestramento 10.000
Record in un set di dati di convalida 1.000
Modello Campioni minimi Numero massimo di campioni Lunghezza del contesto
Amazon Nova Micro 100 20 km 32 k
Amazon Nova Lite 8 20.000 (10.000 per documento) 32 k
Amazon Nova Pro 100 10 k 32 k

Vincoli relativi a immagini e video

Dimensione massima del file di immagine 10 MB
Numero massimo di video 1 per campione
Lunghezza o durata massima del video 90 secondi
Dimensione massima del file video 50 MB
Formati di immagine supportati PNG, JPEG, GIF, WEBP
Formati video supportati MOV, MKV, WEBM MP4
PrivacyCondizioni del sitoPreferenze cookie
© 2025, Amazon Web Services, Inc. o società affiliate. Tutti i diritti riservati.