Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Le Mistral AI la fin du chat vous API permet de créer des applications conversationnelles. Vous pouvez également utiliser Amazon Bedrock Converse APIavec ce modèle. Vous pouvez utiliser des outils pour effectuer des appels de fonction.
Astuce
Vous pouvez utiliser le plugin Mistral AI fin du chat API avec les opérations d'inférence de base (InvokeModelou InvokeModelWithResponseStream). Toutefois, nous vous recommandons d'utiliser le Converse APIpour implémenter des messages dans votre application. Le Converse APIfournit un ensemble unifié de paramètres qui fonctionnent sur tous les modèles prenant en charge les messages. Pour de plus amples informations, veuillez consulter Menez une conversation avec le Converse Opérations API.
Mistral AI les modèles sont disponibles sous licence Apache 2.0
Modèles pris en charge
Vous pouvez utiliser les éléments suivants Mistral AI modèles avec les exemples de code sur cette page.
-
Mistral Large 2 (24.07)
Vous avez besoin de l’ID du modèle que vous voulez utiliser. Pour obtenir l'ID du modèle, voirModèles de fondation pris en charge dans Amazon Bedrock.
Exemples de demandes et de réponses
Mistral AI Exemple de modèle d'appel Large 2 (24.07).
import boto3
import json
bedrock = session.client('bedrock-runtime', 'us-west-2')
response = bedrock.invoke_model(
modelId='mistral.mistral-large-2407-v1:0',
body=json.dumps({
'messages': [
{
'role': 'user',
'content': 'which llm are you?'
}
],
})
)
print(json.dumps(json.loads(response['body']), indent=4))