Seleziona le tue preferenze relative ai cookie

Utilizziamo cookie essenziali e strumenti simili necessari per fornire il nostro sito e i nostri servizi. Utilizziamo i cookie prestazionali per raccogliere statistiche anonime in modo da poter capire come i clienti utilizzano il nostro sito e apportare miglioramenti. I cookie essenziali non possono essere disattivati, ma puoi fare clic su \"Personalizza\" o \"Rifiuta\" per rifiutare i cookie prestazionali.

Se sei d'accordo, AWS e le terze parti approvate utilizzeranno i cookie anche per fornire utili funzionalità del sito, ricordare le tue preferenze e visualizzare contenuti pertinenti, inclusa la pubblicità pertinente. Per continuare senza accettare questi cookie, fai clic su \"Continua\" o \"Rifiuta\". Per effettuare scelte più dettagliate o saperne di più, fai clic su \"Personalizza\".

Che cos'è la progettazione dei prompt?

Modalità Focus
Che cos'è la progettazione dei prompt? - Amazon Bedrock

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

La progettazione tempestiva si riferisce alla pratica di creare e ottimizzare i prompt di input selezionando parole, frasi, frasi, punteggiatura e caratteri separatori appropriati da utilizzare efficacemente per un'ampia varietà di applicazioni. LLMs In altre parole, la progettazione dei prompt è la tecnica per comunicare con un LLM. I prompt di alta qualità permettono all'LLM di generare le risposte desiderate o migliori. Le linee guida dettagliate fornite in questo documento sono applicabili LLMs a tutti gli utenti di Amazon Bedrock.

Il miglior approccio alla progettazione dei prompt per il tuo caso d'uso dipende sia dall'attività che dai dati. Le attività più comuni supportate da LLMs Amazon Bedrock includono:

  • Classificazione: il prompt include una domanda con diverse scelte possibili per la risposta e il modello deve rispondere con la scelta corretta. Un esempio di utilizzo della classificazione è l'analisi del sentiment: l'input è un passaggio di testo e il modello deve classificare il sentiment del testo, ad esempio se è positivo o negativo, innocuo o tossico.

  • Domanda-risposta, senza contesto: il modello deve rispondere alla domanda sfruttando le proprie conoscenze interne, senza alcun contesto o documento.

  • Domanda-risposta, con contesto: l'utente fornisce un testo di input con una domanda e il modello deve rispondere in base alle informazioni fornite nel testo di input.

  • Riassunto: il prompt passa un testo e il modello deve rispondere con un passaggio più breve che catturi i punti principali dell'input.

  • Generazione di testo aperto: dopo l'invio di un prompt, il modello deve rispondere con un passaggio di testo originale che corrisponde alla descrizione. Ciò include anche la generazione di testi creativi come storie, poesie o sceneggiature di film.

  • Generazione di codice: il modello deve generare codice in base alle specifiche dell'utente. Ad esempio, un prompt potrebbe richiedere la generazione text-to-SQL di codice Python.

  • Matematica: l'input descrive un problema che richiede un ragionamento matematico di un certo livello, che potrebbe essere numerico, logico, geometrico o di altro tipo.

  • Ragionamento o pensiero logico: il modello deve fare una serie di deduzioni logiche.

  • Estrazione di entità: l'estrazione di entità può estrarre entità in base a una domanda di input fornita. È possibile estrarre entità specifiche dal testo o dall'input in base alla richiesta.

  • Chain-of-thought ragionamento: spiegate step-by-step come viene derivata una risposta in base alla vostra richiesta.

PrivacyCondizioni del sitoPreferenze cookie
© 2025, Amazon Web Services, Inc. o società affiliate. Tutti i diritti riservati.