Cómo funcionan - Amazon Bedrock

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Cómo funcionan

Las bases de conocimiento de Amazon Bedrock le ayudan a aprovechar la generación aumentada de recuperación (RAG), una técnica popular que consiste en extraer información de un almacén de datos para aumentar las respuestas generadas por los modelos de lenguaje de gran tamaño (LLM). Al configurar una base de conocimientos con sus orígenes de datos, la aplicación puede consultarla para obtener información que permita responder a la consulta, ya sea con citas directas de los orígenes o con respuestas naturales generadas a partir de los resultados de la consulta.

Con las bases de conocimientos, puede crear aplicaciones que se enriquezcan con el contexto que se obtiene al consultar una base de conocimientos. Permite una comercialización más rápida, ya que evita la pesada tarea de crear procesos y le proporciona una solución de out-of-the-box RAG para reducir el tiempo de creación de su aplicación. Añadir una base de conocimientos también aumenta la rentabilidad, ya que elimina la necesidad de entrenar continuamente el modelo para poder aprovechar sus datos privados.

Los siguientes diagramas ilustran esquemáticamente cómo se lleva a cabo la RAG. La base de conocimientos simplifica la configuración e implementación de la RAG al automatizar varios pasos de este proceso.

Procesamiento previo de datos

Para permitir una recuperación eficaz de los datos privados, una práctica habitual consiste en dividir primero los documentos en fragmentos fáciles de gestionar para que la recuperación sea eficiente. A continuación, los fragmentos se convierten en incrustaciones y se escriben en un índice vectorial, manteniendo una correspondencia con el documento original. Estas incrustaciones se utilizan para determinar la similitud semántica entre las consultas y el texto de los orígenes de datos. La siguiente imagen ilustra el preprocesamiento de los datos para la base de datos vectorial.

Procesamiento previo de datos para la generación aumentada de recuperación

Ejecución en tiempo de ejecución

En tiempo de ejecución, se utiliza un modelo de incrustación para convertir la consulta del usuario en un vector. A continuación, se consulta el índice vectorial para buscar fragmentos semánticamente similares a la consulta del usuario, comparando los vectores del documento con el vector de consulta del usuario. En el último paso, la petición del usuario se aumenta con el contexto adicional de los fragmentos que se recuperan del índice vectorial. Luego, la petición, junto con el contexto adicional, se envía al modelo para generar una respuesta para el usuario. La siguiente imagen ilustra cómo funciona la RAG en tiempo de ejecución para aumentar las respuestas a las consultas de los usuarios.

Generación aumentada de recuperación en tiempo de ejecución