翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
Mistral AI チャットの完了
Mistral AI チャット完了 API を使用すると、会話アプリケーションを作成できます。
ヒント
Mistral AI チャット完了 API は、基本推論オペレーション (InvokeModel または InvokeModelWithResponseStream ) で使用できます。ただし、Converse API を使用してアプリケーションにメッセージを実装することをお勧めします。Converse API は、メッセージをサポートするすべてのモデルで動作するパラメータの統合セットを提供します。詳細については、「Converse API を使用する」を参照してください。
Mistral AI モデルは Apache 2.0 ライセンス
サポートされているモデル
次のMistral AIモデルを使用できます。
Mistral Large
このとき、使用するモデルのモデル ID が必要になります。モデル ID を取得するには、「」を参照してくださいAmazon Bedrock IDs。
リクエストとレスポンス
- Request
-
Mistral AI モデルには次の推論パラメータがあります。
{ "messages": [ { "role": "system"|"user"|"assistant", "content": str }, { "role": "assistant", "content": "", "tool_calls": [ { "id": str, "function": { "name": str, "arguments": str } } ] }, { "role": "tool", "tool_call_id": str, "content": str } ], "tools": [ { "type": "function", "function": { "name": str, "description": str, "parameters": dict } } ], "tool_choice": "auto"|"any"|"none", "max_tokens": int, "top_p": float, "temperature": float }
必須パラメータを以下に示します。
-
messages – (必須) モデルに渡すメッセージ。
-
role – メッセージのロール。有効な値は次のとおりです。
system – 会話中のモデルの動作とコンテキストを設定します。
user – モデルに送信するユーザーメッセージ。
Assistant – モデルからのレスポンス。
-
content – メッセージのコンテンツ。
[ { "role": "user", "content": "What is the most popular song on WZPZ?" } ]
ツールの結果を渡すには、次のフィールドで JSON を使用します。
-
role – メッセージのロール。値は
tool
にする必要があります。 -
tool_call_id – ツールリクエストの ID。ID は、前のリクエストからのレスポンスの
tool_calls
フィールドから取得します。 -
content – ツールの結果。
次の例は、ラジオ局で最も人気のある曲を取得するツールの結果です。
{ "role": "tool", "tool_call_id": "v6RMMiRlT7ygYkT4uULjtg", "content": "{\"song\": \"Elemental Hotel\", \"artist\": \"8 Storey Hike\"}" }
-
オプションのパラメータを以下に示します。
-
ツール - モデルが使用できるツールの定義。
リクエスト
tools
に を含めると、モデルがこれらのツールの使用を表すtool_calls
フィールドをメッセージに返す場合があります。その後、モデルによって生成されたツール入力を使用してこれらのツールを実行し、必要に応じてtool_result
コンテンツブロックを使用して結果をモデルに戻すことができます。次の例は、ラジオ局で最も人気のある曲を取得するツール用です。
[ { "type": "function", "function": { "name": "top_song", "description": "Get the most popular song played on a radio station.", "parameters": { "type": "object", "properties": { "sign": { "type": "string", "description": "The call sign for the radio station for which you want the most popular song. Example calls signs are WZPZ and WKRP." } }, "required": [ "sign" ] } } } ]
-
tool_choice – 関数の呼び出し方法を指定します。に設定すると
none
、モデルは関数を呼び出しず、代わりにメッセージを生成します。に設定されている場合auto
、モデルはメッセージを生成するか、関数を呼び出すかを選択できます。に設定するany
と、モデルは強制的に関数を呼び出すようになります。
-
max_tokens – 生成されたレスポンスで使用するトークンの最大数を指定します。生成されたテキストの長さが
max_tokens
を超えると、モデルはレスポンスを切り捨てます。デフォルト値 最小値 最大値 Mistral Large – 8,192
1
Mistral Large – 8,192
-
temperature – モデルによって行われた予測のランダム性を制御します。詳細については、「推論パラメータ」を参照してください。
デフォルト値 最小値 最大値 Mistral Large – 0.7
0
1
-
top_p – モデルが次のトークンと見なす可能性が最も高い候補の割合を設定することで、モデルが生成するテキストの多様性を制御します。詳細については、「推論パラメータ」を参照してください。
デフォルト値 最小値 最大値 Mistral Large – 1
0
1
-
- Response
-
InvokeModel
を呼び出した場合のbody
レスポンスを以下に示します。{ "choices": [ { "index": 0, "message": { "role": "assistant", "content": str, "tool_calls": [...] }, "stop_reason": "stop"|"length"|"tool_calls" } ] }
body
レスポンスに指定できるフィールドについて説明します。-
choices – モデルからの出力。 フィールド。
-
index – メッセージのインデックス。
-
message – モデルからのメッセージ。
-
role – メッセージのロール。
-
content – メッセージのコンテンツ。
-
tool_calls – の値が
stop_reason
の場合tool_calls
、このフィールドにはモデルが実行させたいツールリクエストのリストが含まれます。-
id – ツールリクエストの ID。
-
function – モデルがリクエストしている関数。
-
name – 関数の名前。
-
引数 – ツールに渡す引数
-
以下は、ラジオステーションで上位の曲を取得するツールのリクエスト例です。
[ { "id": "v6RMMiRlT7ygYkT4uULjtg", "function": { "name": "top_song", "arguments": "{\"sign\": \"WZPZ\"}" } } ]
-
-
-
stop_reason – レスポンスがテキストの生成を停止した理由。可能な値は以下のとおりです。
-
停止 - モデルは入力プロンプトのテキストの生成を終了しました。モデルは、生成するコンテンツがもうないため、または
stop
リクエストパラメータで定義した停止シーケンスの 1 つがモデルによって生成された場合に停止します。 -
length – 生成されたテキストのトークンの長さが の値を超えています
max_tokens
。レスポンスはmax_tokens
個のトークンの長さに切り捨てられます。 -
tool_calls – モデルはツールの実行をリクエストしています。
-
-
-