Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Mistral AIAbschluss des Chats
Mit der API zur Mistral AI Chat-Vervollständigung können Konversationsanwendungen erstellt werden.
Tipp
Sie können die Mistral AI Chat-Abschluss-API mit den grundlegenden Inferenzoperationen (InvokeModeloder InvokeModelWithResponseStream) verwenden. Wir empfehlen jedoch, die Converse-API zu verwenden, um Nachrichten in Ihrer Anwendung zu implementieren. Die Converse-API bietet einen einheitlichen Satz von Parametern, die für alle Modelle funktionieren, die Nachrichten unterstützen. Weitere Informationen finden Sie unter Führen Sie ein Gespräch mit den Converse-Betrieben API.
Mistral AIModelle sind unter der Apache 2.0-Lizenz
Unterstützte Modelle
Sie können die folgenden Mistral AI Modelle verwenden.
Mistral Large
Sie benötigen die Modell-ID für das Modell, das Sie verwenden möchten. Informationen zur Modell-ID finden Sie unterModell Amazon Bedrock IDs.
Anforderung und Antwort
- Request
-
Die Mistral AI Modelle haben die folgenden Inferenzparameter.
{ "messages": [ { "role": "system"|"user"|"assistant", "content": str }, { "role": "assistant", "content": "", "tool_calls": [ { "id": str, "function": { "name": str, "arguments": str } } ] }, { "role": "tool", "tool_call_id": str, "content": str } ], "tools": [ { "type": "function", "function": { "name": str, "description": str, "parameters": dict } } ], "tool_choice": "auto"|"any"|"none", "max_tokens": int, "top_p": float, "temperature": float }
Die folgenden Parameter sind erforderlich.
-
messages — (Erforderlich) Die Nachrichten, die Sie an das Modell übergeben möchten.
-
Rolle — Die Rolle für die Nachricht. Gültige Werte für sind:
System — Legt das Verhalten und den Kontext für das Modell in der Konversation fest.
user — Die Benutzernachricht, die an das Modell gesendet werden soll.
assistant — Die Antwort des Modells.
-
Inhalt — Der Inhalt der Nachricht.
[ { "role": "user", "content": "What is the most popular song on WZPZ?" } ]
Verwenden Sie JSON mit den folgenden Feldern, um ein Werkzeugergebnis zu übergeben.
-
role — Die Rolle für die Nachricht. Der Wert muss sein
tool
. -
tool_call_id — Die ID der Werkzeuganforderung. Sie erhalten die ID aus den
tool_calls
Feldern in der Antwort der vorherigen Anfrage. -
Inhalt — Das Ergebnis des Tools.
Das folgende Beispiel ist das Ergebnis eines Tools, das den beliebtesten Song eines Radiosenders ermittelt.
{ "role": "tool", "tool_call_id": "v6RMMiRlT7ygYkT4uULjtg", "content": "{\"song\": \"Elemental Hotel\", \"artist\": \"8 Storey Hike\"}" }
-
Die folgenden Parameter sind optional.
-
Werkzeuge — Definitionen von Werkzeugen, die das Modell verwenden kann.
Wenn Sie
tools
in Ihrer Anfrage angeben, gibt das Modell möglicherweise eintool_calls
Feld in der Nachricht zurück, das die Verwendung dieser Tools durch das Modell darstellt. Sie können diese Werkzeuge dann mit der vom Modell generierten Werkzeugeingabe ausführen und anschließend optional Ergebnisse mithilfe vontool_result
Inhaltsblöcken an das Modell zurückgeben.Das folgende Beispiel bezieht sich auf ein Tool, das die beliebtesten Songs eines Radiosenders abruft.
[ { "type": "function", "function": { "name": "top_song", "description": "Get the most popular song played on a radio station.", "parameters": { "type": "object", "properties": { "sign": { "type": "string", "description": "The call sign for the radio station for which you want the most popular song. Example calls signs are WZPZ and WKRP." } }, "required": [ "sign" ] } } } ]
-
tool_choice — Gibt an, wie Funktionen aufgerufen werden. Wenn diese Option aktiviert
none
ist, ruft das Modell keine Funktion auf und generiert stattdessen eine Meldung. Wenn diese Option aktiviert ist, kannauto
das Modell wählen, ob entweder eine Nachricht generiert oder eine Funktion aufgerufen werden soll. Wenn diese Option aktiviert ist, wirdany
das Modell gezwungen, eine Funktion aufzurufen.
-
max_tokens — Geben Sie die maximale Anzahl von Tokens an, die in der generierten Antwort verwendet werden sollen. Das Modell kürzt die Antwort, sobald der generierte Text den Wert
max_tokens
überschreitet.Standard Minimum Maximum Mistral Large— 8.192
1
Mistral Large— 8.192
-
Temperatur — Steuert die Zufälligkeit der vom Modell getroffenen Vorhersagen. Weitere Informationen finden Sie unter Beeinflussen Sie die Antwortgenerierung mit Inferenzparametern.
Standard Minimum Maximum Mistral Large— 0,7
0
1
-
top_p — Steuert die Textvielfalt, die das Modell generiert, indem der Prozentsatz der wahrscheinlichsten Kandidaten festgelegt wird, die das Modell für das nächste Token berücksichtigt. Weitere Informationen finden Sie unter Beeinflussen Sie die Antwortgenerierung mit Inferenzparametern.
Standard Minimum Maximum Mistral Large— 1
0
1
-
- Response
-
Die
body
-Antwort eines Aufrufs vonInvokeModel
lautet wie folgt:{ "choices": [ { "index": 0, "message": { "role": "assistant", "content": str, "tool_calls": [...] }, "stop_reason": "stop"|"length"|"tool_calls" } ] }
Die
body
-Antwort enthält folgende mögliche Felder:-
choices — Die Ausgabe des Modells. Felder.
-
index — Der Index für die Nachricht.
-
message — Die Nachricht des Modells.
-
Rolle — Die Rolle der Nachricht.
-
Inhalt — Der Inhalt der Nachricht.
-
tool_calls — Wenn der Wert von
stop_reason
isttool_calls
, enthält dieses Feld eine Liste von Werkzeuganforderungen, die Sie nach dem Modell ausführen sollen.-
id — Die ID für die Werkzeuganforderung.
-
function — Die Funktion, die das Modell anfordert.
-
name — Der Name der Funktion.
-
arguments — Die Argumente, die an das Tool übergeben werden sollen
-
Im Folgenden finden Sie ein Beispiel für eine Anfrage für ein Tool, das den Top-Song eines Radiosenders ermittelt.
[ { "id": "v6RMMiRlT7ygYkT4uULjtg", "function": { "name": "top_song", "arguments": "{\"sign\": \"WZPZ\"}" } } ]
-
-
-
stop_reason — Der Grund, warum die Antwort keinen Text mehr generiert hat. Die möglichen Werte sind:
-
Stopp – Das Modell hat die Textgenerierung für die Eingabeaufforderung abgeschlossen. Das Modell wird beendet, weil kein Inhalt mehr generiert werden muss oder wenn das Modell eine der Stoppsequenzen generiert, die Sie im
stop
Anforderungsparameter definieren. -
Länge — Die Länge der Token für den generierten Text überschreitet den Wert von
max_tokens
. Die Antwort wird aufmax_tokens
Token gekürzt. -
tool_calls — Das Modell fordert Sie auf, ein Tool auszuführen.
-
-
-