RAG アプリケーションを最適化するためのベストプラクティスの記述 - AWS 規範ガイダンス

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

RAG アプリケーションを最適化するためのベストプラクティスの記述

Ivan Cui と Samantha Stuart、Amazon Web Services

2025 年 7 月 (ドキュメント履歴)

大規模言語モデル (LLMsは、人間のようなテキストを理解して生成する能力を備え、人工知能の分野に変革をもたらしました。ただし、トレーニングデータに含まれる知識のみを扱うことができるという大きな制限に直面しています。これは、検索拡張生成 (RAG) が役立つ場所です。これは、LLMs を組織のデータやドキュメントなどの外部のナレッジソースと組み合わせたソリューションを提供します。情報の取得とレスポンスの生成を含む 2 段階のプロセスを通じて、RAG は AI システムがさまざまなソースからのup-to-date情報にアクセスして組み込むことができるため、静的モデル知識と動的な現実世界の情報ニーズとのギャップを埋める、より正確で情報に基づいたレスポンスが得られます。

RAG ベースのアプリケーションで取得するコンテンツを最適化するにはどうすればよいですか? このガイドでは、ナレッジベースのテキストベースのコンテンツのフォーマットと書き込みスタイルを最適化するためのベストプラクティスを提供します。コンテンツを最適化すると、RAG アプリケーションがタスク固有の情報をより正確に理解するのに役立つコンテキストが強化されます。システムが関連性が高く正確なコンテンツを取得すると、LLM のレスポンスの品質が向上します。システムレベルでコンテキスト配信プロセスを最適化することはコンテキストエンジニアリングと呼ばれ、エージェント RAG アーキテクチャの重要な部分を形成します。エージェント RAG では、1 つ以上の追加の LLMs 理由があり、RAG の実行前に受信リクエストを処理します。これにより、複数ステップの情報配信プロセスが容易になります。RAG アーキテクチャがますます複雑になるにつれて、ソースコンテンツの最適化は、LLMs。これらのベストプラクティスは、組織の RAG アプリケーションへの投資を最大化するのに役立ちます。

対象者

このガイドは、1 つ以上の RAG コンポーネントを使用して LLM アプリケーションを構築している AI エンジニア、データサイエンティスト、データエンジニア、またはソフトウェア開発者を対象としています。このガイドの概念と推奨事項を理解するには、ベクトルデータベースと LLMs のプロンプトに精通している必要があります。

目的

このガイドの推奨事項は、以下を達成するのに役立ちます。

  • トークンの使用と冗長性に最適化された、適切に構造化され意味的に豊富なソースドキュメントを提供することで、RAG アプリケーションによって生成されたレスポンスの精度と関連性を向上させます。

  • ソースドキュメント内で明確な定義と説明を提供することで、RAG アプリケーションがドメイン固有の知識とコンテキストをよりよく理解できるようにします。

  • ソースドキュメント全体で一貫したフォーマットと構造化ガイドラインに従うことで、RAG アプリケーションのメンテナンスとナレッジベースの更新を容易にします。

  • 大規模なモノリシックドキュメントを、効率的にインデックス作成および取得できるより小さな自己完結型ユニットに分割することで、RAG ソリューションのスケーラビリティを向上させます。