Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Prima di iniziare un lavoro di personalizzazione del modello, è necessario preparare almeno un set di dati di addestramento. Il supporto di un set di dati di convalida e il formato del set di dati di formazione e convalida dipendono dai seguenti fattori.
-
Il tipo di lavoro di personalizzazione di fine tuning (perfezionamento o pre-formazione continua).
-
Le modalità di input e output dei dati.
Modalità supportate per la messa a punto e la formazione preliminare continua
La tabella seguente mostra le modalità di input e output supportate dalla distillazione con ciascun modello:
-
Ottimizzazione: Text-to-Text — Il modello genera un output testuale dall'input testuale apprendendo modelli basati sul linguaggio come la grammatica, la semantica o il significato contestuale. La messa a punto consente al modello di eseguire attività specifiche come il riepilogo, la traduzione o la risposta a domande.
-
Ottimizzazione: Text-Image-to-Text — Il modello genera un output testuale da input di testo e immagine, supportando attività come la didascalia delle immagini o la risposta visiva alle domande. La messa a punto migliora la capacità del modello di interpretare e combinare dati multimodali per migliorare le prestazioni specifiche delle attività.
-
Ottimizzazione: Text-to-Image — Il modello genera immagini in uscita da istruzioni testuali traducendo il testo descrittivo in rappresentazioni visive dettagliate. La messa a punto adatta il modello per produrre immagini specifiche del dominio o stilisticamente coerenti.
-
Ottimizzazione: Image-to-Embeddings — Il modello genera incorporamenti (rappresentazioni numeriche) dagli input di immagini per attività come la classificazione, il recupero o l'allineamento multimodale. La messa a punto ottimizza lo spazio di incorporamento per garantire precisione e pertinenza in applicazioni specifiche.
-
Ottimizzazione: messaggistica a turno singolo: il modello genera risposte concise e contestualmente accurate per messaggi di input isolati a turno singolo. La messa a punto migliora la capacità del modello di gestire in modo efficace gli scambi conversazionali una tantum.
-
Ottimizzazione: messaggistica a più turni: il modello genera risposte coerenti e contestualmente consapevoli nelle conversazioni a più turni mantenendo il contesto tra gli scambi. La messa a punto migliora la capacità del modello di gestire il flusso di dialogo e di mantenere il contesto durante conversazioni prolungate.
Nome modello | Ottimizzazione: ext-to-text | Ottimizzazione: i mage-text-to-text | Ottimizzazione: & Text-to-image Image-to-embeddings | Ottimizzazione: messaggistica a turno singolo | Ottimizzazione: messaggistica a turni multipli | Formazione preliminare continua: ext-to-text |
---|---|---|---|---|---|---|
Amazon Titan Text G1 - Express | Sì | No | No | No | No | Sì |
Amazon Titan Text G1 - Lite | Sì | No | No | No | No | Sì |
Amazon Titan Text Premier | Sì | No | No | No | No | No |
Amazon Titan Image Generator G1 V1 | Sì | No | Sì | No | No | No |
Amazon Titan Multimodal Embeddings G1 G1 | Sì | No | Sì | No | No | No |
Anthropic Claude 3 Haiku | No | No | No | Sì | Sì | No |
Cohere Command | Sì | No | No | No | No | No |
Cohere Command Light | Sì | No | No | No | No | No |
Meta Llama 3.1 8B Instruct | Sì | No | No | No | No | No |
Meta Llama 3.1 70B Instruct | Sì | No | No | No | No | No |
Meta Llama 3.2 1B Instruct | No | No | No | Sì (formato API Converse) | Sì (formato API Converse) | No |
Meta Llama 3.2 3B Instruct | No | No | No | Sì (formato API Converse) | Sì (formato API Converse) | No |
Meta Llama 3.2 11B Instruct Vista | No | Sì | No | Sì (formato API Converse) | Sì (formato API Converse) | No |
Meta Llama 3.2 90B Instruct Vista | No | Sì | No | Sì (formato API Converse) | Sì (formato API Converse) | No |
Per visualizzare le quote predefinite applicabili ai set di dati di formazione e convalida utilizzati per personalizzare diversi modelli, consulta la sezione Somma delle quote dei record di formazione e convalida negli endpoint Amazon Bedrock e nelle quote nel. Riferimenti generali di AWS
Prepara i set di dati per la messa a punto
Per preparare set di dati di addestramento e convalida per il modello personalizzato, create .jsonl
dei file, ogni riga dei quali è un oggetto JSON corrispondente a un record. I file creati devono essere conformi al formato del metodo e del modello di personalizzazione scelti e i record in essi contenuti devono essere conformi ai requisiti di dimensione.
Il formato dipende dalla modalità di input e output del modello. Scegliete la scheda relativa al metodo preferito, quindi seguite i passaggi:
Per la messa a punto dei text-to-text modelli, ogni oggetto JSON è un esempio contenente campi strutturati progettati per guidare il modello verso la generazione dell'output testuale desiderato in base a un prompt testuale fornito. Il formato dei dati varia a seconda del caso d'uso, ampiamente classificato in casi d'uso non conversazionali e conversazionali. Le attività non conversazionali prevedono istruzioni e output autonomi, mentre le attività conversazionali possono essere ulteriormente suddivise in scambi a turno singolo, in cui il modello risponde all'input di un singolo utente, e dialoghi a più turni, in cui il modello mantiene il contesto tra più scambi.
Attività non conversazionali
Le attività non conversazionali implicano la generazione di un singolo output per un determinato input. Ogni esempio di set di dati include un prompt
campo contenente il testo di input e un completion
campo con l'output previsto. Questo formato supporta una serie di attività come la risposta a domande, il riepilogo, la traduzione, il completamento del testo e l'estrazione di informazioni.
Formato di esempio
{"prompt": "What is the capital of France?", "completion": "The capital of France is Paris."}
{"prompt": "Summarize the article about climate change.", "completion": "Climate change refers to the long-term alteration of temperature and typical weather patterns in a place."}
Utilizza circa 6 caratteri per token per stimare il numero di token per la pianificazione delle dimensioni del set di dati.
Formato API Converse (giro singolo e giro multiplo)
Per utilizzare l'API Converse, devi chiamare le ConverseStream
operazioni Converse
o per inviare messaggi a un modello. Per chiamareConverse
, è necessaria l'autorizzazione per l'bedrock:InvokeModel
operazione. Per chiamareConverseStream
, è necessaria l'autorizzazione per l'bedrock:InvokeModelWithResponseStream
operazione. Per ulteriori informazioni, consulta Utilizzo di Converse API.
Formato di esempio
{
"schemaVersion": "bedrock-conversation-2024",
"system": [
{
"text": "You are a digital assistant with a friendly personality"
}
],
"messages": [
{
"role": "user",
"content": [
{
"text": "What is the capital of Mars?"
}
]
},
{
"role": "assistant",
"content": [
{
"text": "Mars does not have a capital. Perhaps it will one day."
}
]
}
]
}
Per Anthropic Claude 3 Haiku solo: conversazioni a turno singolo
Le attività di conversazione a turno singolo implicano scambi isolati, in cui il modello genera una risposta basata esclusivamente sull'input corrente dell'utente senza considerare il contesto precedente. Ogni esempio di set di dati utilizza un array di messaggi, con ruoli alternati di e. user
assistant
Formato
{"system": "<system message>","messages":[{"role": "user", "content": "<user query>"},{"role": "assistant", "content": "<expected generated text>"}]}
Esempio
{"system": "You are an helpful assistant.","messages":[{"role": "user", "content": "what is AWS"},{"role": "assistant", "content": "it's Amazon Web Services."}]}
Per Anthropic Claude 3 Haiku solo: conversazioni a più turni
Le attività conversazionali a più turni implicano dialoghi estesi in cui il modello deve generare risposte preservando il contesto degli scambi precedenti. Questo formato cattura la natura dinamica delle attività interattive, come l'assistenza clienti o le discussioni complesse.
Formato
{"system": "<system message>","messages":[{"role": "user", "content": "<user query 1>"},{"role": "assistant", "content": "<expected generated text 1>"}, {"role": "user", "content": "<user query 2>"},{"role": "assistant", "content": "<expected generated text 2>"}]}
Esempio
{"system": "system message","messages":[{"role": "user", "content": "Hello there."},{"role": "assistant", "content": "Hi, how can I help you?"},{"role": "user", "content": "what are LLMs?"},{"role": "assistant", "content": "LLM means large language model."},]}
Prepara i set di dati per la formazione preliminare continua
Per eseguire una formazione preliminare continua su un text-to-text modello, prepara un set di dati di formazione e convalida opzionale. Poiché la formazione preliminare continua prevede dati non etichettati, ogni riga JSON è un esempio contenente solo un campo. input
Usa 6 caratteri per token come approssimazione del numero di token. Il formato è il seguente:
{"input": "<input text>"}
{"input": "<input text>"}
{"input": "<input text>"}
Di seguito è riportato un esempio di elemento che potrebbe essere presente nei dati di addestramento.
{"input": "AWS stands for Amazon Web Services"}
Requisiti del modello per la formazione e la convalida dei set di dati
Seleziona una scheda per visualizzare i requisiti per i set di dati di addestramento e convalida per un modello:
Modello | Campioni minimi | Numero massimo di campioni | Lunghezza del contesto |
---|---|---|---|
Amazon Nova Micro | 100 | 20 km | 32 k |
Amazon Nova Lite | 8 | 20.000 (10.000 per documento) | 32 k |
Amazon Nova Pro | 100 | 10 k | 32 k |
Vincoli relativi a immagini e video
Dimensione massima del file di immagine | 10 MB |
Numero massimo di video | 1 per campione |
Lunghezza o durata massima del video | 90 secondi |
Dimensione massima del file video | 50 MB |
Formati di immagine supportati | PNG, JPEG, GIF, WEBP |
Formati video supportati | MOV, MKV, WEBM MP4 |