가드레일의 구성 요소 - Amazon Bedrock

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

가드레일의 구성 요소

Amazon Bedrock Guardrails는 바람직하지 않은 유해한 콘텐츠를 방지하고 개인 정보 보호를 위해 민감한 정보를 제거하거나 숨기도록 구성할 수 있는 다양한 필터링 정책 모음으로 구성되어 있습니다.

가드레일에서 다음 정책을 구성할 수 있습니다.

  • 콘텐츠 필터 - 입력 프롬프트를 차단하거나 증오, 모욕, 성적, 폭력, 위법 행위 (범죄 행위 포함), 즉각적인 공격 (즉각적인 주입 및 탈옥) 과 같은 유해한 콘텐츠가 포함된 응답을 모델링하도록 임계값을 구성할 수 있습니다. 예를 들어 전자 상거래 사이트는 증오심 표현이나 모욕과 같은 부적절한 언어를 사용하지 않도록 온라인 도우미를 설계할 수 있습니다.

  • 거부된 주제 — 제너레이티브 AI 애플리케이션 내에서 피해야 할 주제 세트를 정의할 수 있습니다. 예를 들어 불법 투자 자문과 관련된 주제를 피하도록 뱅킹 어시스턴트 애플리케이션을 설계할 수 있습니다.

  • 단어 필터 — 사용자와 생성형 AI 애플리케이션 간의 상호 작용에서 탐지하고 차단하려는 사용자 지정 단어 또는 구문 세트를 구성할 수 있습니다. 예를 들어 욕설은 물론 경쟁사 이름과 같은 특정 사용자 지정 단어 또는 기타 불쾌한 단어를 탐지하고 차단할 수 있습니다.

  • 민감한 정보 필터 — 사용자 입력 및 FM 응답에서 개인 식별 정보 (PII) 또는 사용자 지정 정규식 엔티티와 같은 민감한 콘텐츠를 탐지할 수 있습니다. 사용 사례에 따라 민감한 정보가 포함된 입력을 거부하거나 FM 응답에서 수정할 수 있습니다. 예를 들어 고객 및 상담원의 대화 내용에서 요약을 생성하면서 사용자의 개인 정보를 삭제할 수 있습니다.

  • 상황별 근거 확인 — 모델 응답이 소스 정보에 근거가 없거나 (사실적으로 부정확하거나 새로운 정보를 추가한 경우), 사용자의 질문과 관련이 없는 경우 모델 응답에서 환각을 감지하고 필터링할 수 있습니다. 예를 들어, 모델 응답이 검색된 구절의 정보와 다르거나 사용자의 질문에 답변하지 않는 경우 RAG 애플리케이션에서 응답을 차단하거나 플래그를 지정할 수 있습니다 (검색 증강 생성).