翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
モデル推論を実行する
推論とは、モデルに提供された入力から出力を生成するプロセスを指します。基盤モデルは確率を使って単語を順番にコンストラクトします。入力が与えられると、モデルはその後に続く可能性のあるトークンのシーケンスを予測し、そのシーケンスを出力として返します。Amazon Bedrock では、選択した基盤モデルで推論を実行できます。推論を実行する場合は、次の情報を指定します。
-
プロンプト — レスポンスを生成するためにモデルに提供される入力。プロンプトの書き方については、「 プロンプトエンジニアリングガイドライン」を参照してください。プロンプトインジェクション攻撃からの保護については、「」を参照してください迅速なインジェクションセキュリティ。
-
推論パラメータ — モデルのレスポンスを制限したり影響を与えたりするように調整できる値のセット。推論パラメータの詳細については、「推論パラメータ」および「基盤モデルの推論パラメータ」を参照してください。
Amazon Bedrock には、以下のモダリティの出力を生成するために使用できる基盤モデルのスイートが用意されています。基盤モデル別のモダリティサポートを確認するには、「」を参照してくださいAmazon Bedrock でサポートされている基盤モデル。
出力モダリティ | 説明 | ユースケースの例 |
---|---|---|
テキスト | テキスト入力を提供し、さまざまなタイプのテキストを生成する | チャット、 question-and-answering、ブレインストーミング、要約、コード生成、テーブル作成、データフォーマット、書き換え |
イメージ | テキストまたは入力イメージを提供し、イメージを生成または変更する | イメージ生成、イメージ編集、イメージバリエーション |
埋め込み | テキスト、イメージ、またはテキストとイメージの両方を指定し、入力を表す数値のベクトルを生成します。出力ベクトルを他の埋め込みベクトルと比較して、セマンティック類似性 (テキストの場合) または視覚的類似性 (画像の場合) を判断できます。 | テキストとイメージの検索、クエリ、分類、レコメンデーション、パーソナライゼーション、ナレッジベースの作成 |
モデル推論は、以下の方法で実行できます。
-
任意の [プレイグラウンド] を使用して、わかりやすいグラフィカルインターフェースで推論を実行できます。
Converse API (Converse および ConverseStream) を使用して、会話型アプリケーションを実装します。
-
InvokeModel または InvokeModelWithResponseStreamリクエストを送信します。
-
必要な設定でプロンプトのデータセットを用意し、
CreateModelInvocationJob
リクエストでバッチ推論を実行します。 -
次の Amazon Bedrock 機能は、モデル推論をより大きなオーケストレーションのステップとして使用します。詳細については、これらのセクションを参照してください。
-
ナレッジベースを設定し、RetrieveAndGenerateリクエストを送信します。
-
エージェントをセットアップし、 InvokeAgent リクエストを送信します。
-
ベースモデル、カスタムモデル、またはプロビジョニングされたモデルを使用して推論を実行できます。カスタムモデルで推論を実行するには、まずそのモデルのプロビジョンドスループットを購入します (詳細については、「Amazon Bedrock のプロビジョンドスループット」を参照してください)。
これらの方法を使用して、さまざまなプロンプトと推論パラメータを使用して基盤モデルのレスポンスをテストします。これらのメソッドを十分に理解したら、これらの API を呼び出してモデル推論を実行するようにアプリケーションを設定できます。
この方法を通してモデル推論を実行する詳細情報については、トピックを選択してください。エージェントの使用の詳細については、「Agents for Amazon Bedrock」を参照してください。