¿Qué es una petición? - Amazon Bedrock

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

¿Qué es una petición?

Las peticiones son un conjunto específico de entradas que usted, el usuario, proporciona para guiar a los LLM de Amazon Bedrock a generar una respuesta o una salida adecuadas para una tarea o instrucción determinada.

User Prompt: Who invented the airplane?

Cuando se consulta mediante este indicador, Titan proporciona un resultado:

Output: The Wright brothers, Orville and Wilbur Wright are widely credited with inventing and manufacturing the world's first successful airplane.

(Fuente del mensaje: AWS, modelo utilizado: Amazon Titan Text)

Componentes de una petición

Una sola petición incluye varios componentes, como la tarea o la instrucción que desea que realicen los LLM, el contexto de la tarea (por ejemplo, una descripción del dominio correspondiente), ejemplos de demostración y el texto de entrada que desea que los LLM de Amazon Bedrock utilicen en su respuesta. Según el caso de uso, la disponibilidad de los datos y la tarea, la petición debe combinar uno o más de estos componentes.

Considera este ejemplo de solicitud en la Titan que se pide resumir una reseña:

User Prompt: The following is text from a restaurant review: “I finally got to check out Alessandro’s Brilliant Pizza and it is now one of my favorite restaurants in Seattle. The dining room has a beautiful view over the Puget Sound but it was surprisingly not crowded. I ordered the fried castelvetrano olives, a spicy Neapolitan-style pizza and a gnocchi dish. The olives were absolutely decadent, and the pizza came with a smoked mozzarella, which was delicious. The gnocchi was fresh and wonderful. The waitstaff were attentive, and overall the experience was lovely. I hope to return soon." Summarize the above restaurant review in one sentence.

(Fuente del mensaje: AWS)

Según este mensaje, Titan responde con un breve resumen de una línea de la reseña del restaurante. La reseña menciona los hechos clave y transmite los puntos principales, según se desee.

Output: Alessandro's Brilliant Pizza is a fantastic restaurant in Seattle with a beautiful view over Puget Sound, decadent and delicious food, and excellent service.

(Modelo utilizado: Amazon Titan Text)

Tanto la instrucción Summarize the above restaurant review in one sentence como el texto de revisión I finally got to check out ... eran necesarios para este tipo de salida. Sin ninguno de los dos, el modelo no tendría suficiente información para producir un resumen sensato. La instrucción le indica al LLM qué hacer y el texto es la entrada con la que opera el LLM. El contexto (The following is text from a restaurant review) proporciona información adicional y palabras clave que guían al modelo a utilizar la entrada al formular su salida.

En el siguiente ejemplo, el texto Context: Climate change threatens people with increased flooding ... es la entrada que el LLM puede utilizar para realizar la tarea de responder a la pregunta Question: What organization calls climate change the greatest threat to global health in the 21st century?”.

User prompt: Context: Climate change threatens people with increased flooding, extreme heat, increased food and water scarcity, more disease, and economic loss. Human migration and conflict can also be a result. The World Health Organization (WHO) calls climate change the greatest threat to global health in the 21st century. Adapting to climate change through efforts like flood control measures or drought-resistant crops partially reduces climate change risks, although some limits to adaptation have already been reached. Poorer communities are responsible for a small share of global emissions, yet have the least ability to adapt and are most vulnerable to climate change. The expense, time required, and limits of adaptation mean its success hinge on limiting global warming. Question: What organization calls climate change the greatest threat to global health in the 21st century?

(Origen de la petición: https://en.wikipedia.org/wiki/Climate_change)

AI21 LabsRespuestas jurásicas con el nombre correcto de la organización según el contexto proporcionado en el mensaje.

Output: The World Health Organization (WHO) calls climate change the greatest threat to global health in the 21st century.

(Modelo utilizado: AI21 Labs Jurassic-2 Ultra v1)

Peticiones con pocos pasos frente a peticiones desde cero

A veces resulta útil proporcionar algunos ejemplos para ayudar a los LLM a calibrar mejor sus resultados y cumplir con sus expectativas, lo que también se conoce como peticiones con pocos pasos o aprendizaje en contexto, en el que un paso corresponde a una combinación de entrada de ejemplo y a la salida deseada. A modo ilustrativo, en primer lugar, se muestra un ejemplo de una petición de clasificación de sentimiento desde cero, en el que no se proporciona ningún ejemplo de un par de entradas y salidas en el texto de la petición:

User prompt: Tell me the sentiment of the following headline and categorize it as either positive, negative or neutral: New airline between Seattle and San Francisco offers a great opportunity for both passengers and investors.

(Fuente del mensaje: AWS)

Output: Positive

(Modelo utilizado: Amazon Titan Text)

Esta es la versión con pocos pasos de una petición de clasificación de sentimientos:

User prompt: Tell me the sentiment of the following headline and categorize it as either positive, negative or neutral. Here are some examples: Research firm fends off allegations of impropriety over new technology. Answer: Negative Offshore windfarms continue to thrive as vocal minority in opposition dwindles. Answer: Positive Manufacturing plant is the latest target in investigation by state officials. Answer:

(Fuente del mensaje: AWS)

Output: Negative

(Modelo utilizado: Amazon Titan Text)

En el siguiente ejemplo se utilizan Anthropic Claude modelos. Al usar Anthropic Claude modelos, es una buena práctica usar<example></example> etiquetas para incluir ejemplos de demostración. También recomendamos usar delimitadores diferentes, como H: y A: en los ejemplos, para evitar confusiones con los delimitadores Human: y Assistant: para toda la petición. Observa que en el último ejemplo de unos pocos pasos, A: se deja a favor de la final y, en su lugarAssistant:, se pide que se Anthropic Claude genere la respuesta.

User prompt: Human: Please classify the given email as "Personal" or "Commercial" related emails. Here are some examples. <example> H: Hi Tom, it's been long time since we met last time. We plan to have a party at my house this weekend. Will you be able to come over? A: Personal </example> <example> H: Hi Tom, we have a special offer for you. For a limited time, our customers can save up to 35% of their total expense when you make reservations within two days. Book now and save money! A: Commercial </example> H: Hi Tom, Have you heard that we have launched all-new set of products. Order now, you will save $100 for the new products. Please check our website. Assistant: Output: Commercial

(Fuente del mensaje: AWS, modelo utilizado:) Anthropic Claude

Plantilla de petición

Una plantilla de petición especifica el formato de la petición con contenido intercambiable. Las plantillas de peticiones son «recetas» para usar los LLM para diferentes casos de uso, como la clasificación, el resumen, la respuesta a preguntas y más. Una plantilla de peticiones puede incluir instrucciones, algunos ejemplos de pocos pasos y contexto y preguntas específicos adecuados para un caso de uso determinado. El siguiente ejemplo es una plantilla que puede utilizar para realizar una clasificación de sentimientos de pocos pasos utilizando modelos de texto de Amazon Bedrock:

Prompt template: """Tell me the sentiment of the following {{Text Type, e.g., “restaurant review”}} and categorize it as either {{Sentiment A}} or {{Sentiment B}}. Here are some examples: Text: {{Example Input 1}} Answer: {{Sentiment A}} Text: {{Example Input 2}} Answer: {{Sentiment B}} Text: {{Input}} Answer:"""

Los usuarios pueden copiar y pegar esta plantilla rellenando su propio texto y algunos ejemplos de pocos pasos para completar las peticiones al utilizar los LLM en Amazon Bedrock. En esta sección se proporcionan más plantillas.

nota

Los corchetes dobles {{ and }} marcan los lugares en los que se debe colocar la información específica de los datos en la plantilla y no deben incluirse en el texto de la petición.

Notas importantes sobre el uso de los LLM de Amazon Bedrock mediante llamadas a la API

Si accede a los LLM de Amazon Bedrock mediante llamadas a la API, tenga en cuenta que no recuerdan las peticiones ni las solicitudes anteriores, a menos que la interacción anterior esté incluida en la petición actual. Es posible que lo necesite para interacciones de tipo conversacional o para solicitudes de seguimiento.

Si accede a los Anthropic Claude modelos mediante llamadas a la API en lugar del campo de juegos de texto de Amazon Bedrock, debe agrupar las indicaciones en un estilo conversacional para obtener la respuesta deseada (en el caso de la familia de modelos Titan Text y AI21 Labs Jurassic, no es necesario). En el ejemplo siguiente se muestra una petición de estilo conversacional:

User prompt: Human: Describe where sea otters live in two sentences. Assistant: Output: Here is a two sentence description of where sea otters live: Sea otters live in the northern Pacific Ocean along the coasts of Russia, Alaska, Canada, and the continental United States. They prefer coastal habitats like rocky shores, kelp forests, and estuaries where they have access to shallow, nearshore waters.

(Fuente del mensaje: modelo utilizado: AWS) Anthropic Claude

Observe cómo el contenido principal de la petición está delimitado de esta manera:\n\nHuman: {{Main Content}}\n\nAssistant:. En el Anthropic Claude caso de los modelos, las solicitudes enviadas a través de la API deben contener\n\nHuman: y. \n\nAssistant:

Para activar el modo conversacionalTitan, puede usar el formato de User: {{}} \n Bot: cuando se solicita al modelo.