작동 방식 - Amazon Bedrock

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

작동 방식

Amazon Bedrock의 지식 기반은 데이터 스토어에서 정보를 가져와 LLM (대규모 언어 모델) 에서 생성된 응답을 보강하는 것으로 널리 사용되는 기술인 검색 증강 세대 (RAG) 를 활용할 수 있도록 도와줍니다. 데이터 소스로 지식 기반을 설정하면 애플리케이션에서 지식 기반을 쿼리하여 소스에서 직접 인용하거나 쿼리 결과에서 생성된 자연스러운 응답으로 쿼리에 답하는 정보를 반환할 수 있습니다.

지식 기반을 사용하면 지식 기반을 쿼리하여 검색한 컨텍스트를 통해 보강된 애플리케이션을 구축할 수 있습니다. 이를 통해 복잡한 구축 파이프라인을 없애고 애플리케이션 구축 시간을 단축할 수 있는 out-of-the-box RAG 솔루션을 제공함으로써 시장 출시 시간을 단축할 수 있습니다. 지식 기반을 추가하면 프라이빗 데이터를 활용하기 위해 모델을 지속적으로 학습시킬 필요가 없으므로 비용 효율성도 향상됩니다.

다음 다이어그램은 RAG가 수행되는 방식을 개략적으로 보여 줍니다. 지식 기반은 이 프로세스의 여러 단계를 자동화하여 RAG의 설정 및 구현을 간소화합니다.

데이터 사전 처리

프라이빗 데이터를 효과적으로 검색하는 일반적인 방법은 먼저 문서를 관리 가능한 청크로 분할하여 효과적으로 검색하는 것입니다. 그런 다음 청크는 원본 문서와의 매핑을 유지하면서 임베딩으로 변환되고 벡터 인덱스에 작성됩니다. 이러한 임베딩은 데이터 소스의 쿼리와 텍스트 간의 시맨틱 유사성을 결정하는 데 사용됩니다. 아래 이미지에서는 벡터 데이터베이스의 데이터 사전 처리 과정을 보여줍니다.

검색 증강 생성을 위한 데이터 사전 처리

런타임 실행

런타임 시 임베딩 모델을 사용하여 사용자 쿼리를 벡터로 변환합니다. 그런 다음, 벡터 인덱스를 쿼리하여 문서 벡터와 사용자 쿼리 벡터를 비교하는 방식으로 사용자 쿼리와 의미상 유사한 문서를 찾습니다. 마지막 단계에서는 벡터 인덱스에서 검색된 청크의 추가 컨텍스트를 사용하여 사용자 프롬프트를 증강합니다. 그런 다음 추가 컨텍스트와 함께 프롬프트가 모델로 전송되어 사용자를 위한 응답을 생성합니다. 아래 이미지에서는 RAG가 런타임 시 어떤 방식으로 작동하여 사용자 쿼리에 대한 응답을 증강하는지 보여줍니다.

런타임 시 검색 증강 생성