Seleccione sus preferencias de cookies

Usamos cookies esenciales y herramientas similares que son necesarias para proporcionar nuestro sitio y nuestros servicios. Usamos cookies de rendimiento para recopilar estadísticas anónimas para que podamos entender cómo los clientes usan nuestro sitio y hacer mejoras. Las cookies esenciales no se pueden desactivar, pero puede hacer clic en “Personalizar” o “Rechazar” para rechazar las cookies de rendimiento.

Si está de acuerdo, AWS y los terceros aprobados también utilizarán cookies para proporcionar características útiles del sitio, recordar sus preferencias y mostrar contenido relevante, incluida publicidad relevante. Para aceptar o rechazar todas las cookies no esenciales, haga clic en “Aceptar” o “Rechazar”. Para elegir opciones más detalladas, haga clic en “Personalizar”.

Generación aumentada de recuperación

Modo de enfoque
Generación aumentada de recuperación - Amazon SageMaker AI

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Los modelos fundacionales suelen entrenarse sin conexión, lo que hace que el modelo sea agnóstico a cualquier dato que se cree después de entrenar el modelo. Además, los modelos fundacionales se entrenan en corpus de dominios muy generales, lo que los hace menos eficaces para tareas específicas de un dominio. Puede utilizar la generación aumentada de recuperación (RAG) para recuperar datos ajenos a un modelo fundacional y aumentar las peticiones agregando los datos recuperados relevantes en su contexto. Para obtener más información sobre las arquitecturas de los modelos de RAG, consulte Generación aumentada de recuperación para tareas de NLP con un uso intensivo de conocimientos.

Con RAG, los datos externos que se utilizan para aumentar las solicitudes pueden provenir de varias fuentes de datos, como repositorios de documentos, bases de datos o. APIs El primer paso consiste en convertir los documentos y las consultas de los usuarios en un formato compatible para realizar una búsqueda de relevancia. Para que los formatos sean compatibles, una colección de documentos (o biblioteca de conocimientos) y las peticiones enviadas por los usuarios se convierten en representaciones numéricas mediante modelos de lenguaje incrustado. La incrustación es el proceso mediante el cual el texto recibe una representación numérica en un espacio vectorial. Las arquitecturas de modelos de RAG comparan las incrustaciones de las consultas de los usuarios en el vector de la biblioteca de conocimientos. A continuación, se asocia a la petición del usuario original el contexto relevante de documentos similares de la biblioteca de conocimientos. Este mensaje aumentado se envía luego al modelo fundacional. Puede actualizar las bibliotecas de conocimientos y sus incrustaciones pertinentes de forma asíncrona.

A model architecture diagram of Retrieval Augmented Generation (RAG).

El documento recuperado debe ser lo suficientemente grande como para contener un contexto útil que ayude a aumentar la petición, pero lo suficientemente pequeño como para caber en la longitud máxima de secuencia de la petición. Puede utilizar JumpStart modelos para tareas específicas, como el modelo General Text Embeddings (GTE) de Hugging Face, para proporcionar las incrustaciones de sus indicaciones y documentos de la biblioteca de conocimientos. Después de comparar la petición y las incrustaciones de documentos para buscar los documentos más relevantes, cree una nueva petición con el contexto complementario. A continuación, pase la petición aumentada al modelo de generación de texto que elija.

Cuadernos de ejemplo

Para obtener más información sobre las soluciones de modelos fundacionales de RAG, consulte los de cuadernos de ejemplo siguientes:

Puede clonar el repositorio de ejemplos de Amazon SageMaker AI para ejecutar los ejemplos de modelos JumpStart básicos disponibles en el entorno de Jupyter que prefiera en Studio. Para obtener más información sobre las aplicaciones que puede utilizar para crear Jupyter en SageMaker IA y acceder a él, consulte. Aplicaciones compatibles con Amazon SageMaker Studio

PrivacidadTérminos del sitioPreferencias de cookies
© 2025, Amazon Web Services, Inc o sus afiliados. Todos los derechos reservados.