ガードレールのコンポーネント - Amazon Bedrock

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

ガードレールのコンポーネント

Amazon Bedrock のガードレールは、望ましくないコンテンツや有害なコンテンツを回避し、プライバシー保護のために機密情報を削除またはマスクするように設定できるさまざまなフィルタリングポリシーのコレクションで構成されています。

ガードレールでは、次のポリシーを設定できます。

  • コンテンツフィルター — 憎悪、侮辱、性的、暴力、狂気 (犯罪活動を含む)、プロンプト攻撃 (プロンプトインジェクションとジェイルブレーク) などの有害なコンテンツを含む入力プロンプトまたはモデルレスポンスをブロックするようにしきい値を設定できます。例えば、e コマースサイトは、ヘイトスピーチや侮辱などの不適切な言語を使用しないようにオンラインアシスタントを設計できます。

  • 拒否されたトピック — 生成 AI アプリケーション内で回避する一連のトピックを定義できます。例えば、銀行アシスタントアプリケーションは、不正な投資アドバイスに関連するトピックを避けるように設計できます。

  • 単語フィルター — ユーザーと生成 AI アプリケーション間のやり取りを検出してブロックする一連のカスタム単語またはフレーズを設定できます。例えば、冒涜的な言葉だけでなく、冒涜的な言葉や不快な言葉などの特定のカスタム単語を検出してブロックできます。

  • 機密情報フィルター — ユーザー入力や FM レスポンスで、個人を特定できる情報 (PII) やカスタム正規表現エンティティなどの機密コンテンツを検出できます。ユースケースに基づいて、機密情報を含む入力を拒否したり、FM レスポンスで編集したりできます。例えば、顧客とエージェントの会話のトランスクリプトから概要を生成しながら、ユーザーの個人情報を編集できます。

  • コンテキストのグラウンドチェック — モデルレスポンスの幻覚がソース情報に基づいていない場合 (実際に不正確であるか、新しい情報を追加した場合)、またはユーザーのクエリに無関係である場合に、検出してフィルタリングできます。例えば、モデルレスポンスが取得されたパッセージの情報から逸脱している場合、またはユーザーが質問に回答しない場合、RAG アプリケーションのレスポンスをブロックまたはフラグ付けできます (取得が拡張された生成)。