ユースケース - Amazon MemoryDB

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

ユースケース

ベクトル検索のユースケースを次に示します。

取得拡張生成 (RAG)

Retrieval Augmented Generation (RAG) は、ベクトル検索を活用して大量のデータから関連するパッセージを取得し、大規模な言語モデル () を補強しますLLM。具体的には、エンコーダーは入力コンテキストと検索クエリをベクトルに埋め込み、近似最近傍検索を使用して意味的に類似したパッセージを見つけます。これらの取得したパッセージは、元のコンテキストと連結され、ユーザーにより正確なレスポンスを返LLMすために、 に関連する追加情報を提供します。

検索拡張生成フローの図

耐久性のあるセマンティックキャッシュ

セマンティックキャッシュは、FM からの以前の結果を保存することで計算コストを削減するプロセスです。セマンティックキャッシュは、以前の推論からの以前の結果を再計算するのではなく再利用することで、 を介した推論中に必要な計算量を削減しますFMs。MemoryDB は、耐久性のあるセマンティックキャッシュを可能にし、過去の推論のデータ損失を回避します。これにより、生成 AI アプリケーションは、不要なLLM推論を回避することでコストを削減しながら、以前の意味的に類似した質問からの回答を 1 桁ミリ秒以内に応答できます。

基盤モデルのプロセスを示すワークフロー図。
  • セマンティック検索のヒット – お客様のクエリが以前の質問に対する定義された類似性スコアに基づいて意味的に類似している場合、FM バッファメモリ (MemoryDB) は、ステップ 4 で以前の質問に対する回答を返し、ステップ 3 を通じて FM を呼び出しません。これにより、基盤モデル (FM) のレイテンシーと発生するコストが回避することができ、より高速なエクスペリエンスがお客様に提供されます。

  • セマンティック検索ミス – お客様のクエリが、以前のクエリに対する、定義された類似性スコアに基づいて意味的に類似していない場合、お客様は、ステップ 3a でお客様に応答を提供するように FM を呼び出します。FM から生成された応答は、意味的に類似した質問に対する FM のコストを最小限に抑えるために、将来のクエリのためにベクトルとして MemoryDB に保存されます (ステップ 3b)。このフローでは、意味的に類似した質問が元のクエリに含まれていないため、ステップ 4 は呼び出されません。

不正検出

異常検出の一種である不正検出は、純新規トランザクションのベクトル表現を比較しながら、有効なトランザクションをベクトルとして表現します。不正は、これらの純新規トランザクションが、有効なトランザクションデータを表すベクトルとの類似性が低い場合に検出されます。これにより、考えられるあらゆる不正行為事例の予測を試みるのではなく、通常の動作をモデル化することで不正を検出できます。MemoryDB を使用すると、組織は、高スループット時に、誤検知を最小限に抑えながら、1 桁ミリ秒のレイテンシーでこれを実行できます。

その他のユースケース

  • レコメンデーションエンジンは、項目をベクトルとして表現することで、類似した製品やコンテンツをユーザーのために見つけることができます。ベクトルは、属性とパターンを分析することによって作成されます。ユーザーのパターンと属性に基づいて、ユーザーに合わせて既に肯定的に評価されている最も類似したベクトルを見つけることで、これまでに表示されていない新しい項目をユーザーに推奨できます。

  • 文書検索エンジンは、数値の密なベクトルとしてテキスト文書を表現し、意味論的意味を捉えます。検索時に、エンジンは検索クエリをベクトルに変換し、近似最近傍検索を使用して、クエリに対して最も類似したベクトルを持つドキュメントを検索します。このベクトル類似性アプローチにより、単にキーワードを照合するのではなく、意味に基づいてドキュメントを照合できます。