As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
A ferramenta Mistral AI a conclusão do bate-papo API permite criar aplicativos de conversação. Você também pode usar o Amazon Bedrock Converse APIcom esse modelo. É possível usar ferramentas para fazer chamadas de função.
dica
Você pode usar o Mistral AI conclusão do bate-papo API com as operações básicas de inferência (InvokeModelou InvokeModelWithResponseStream). No entanto, recomendamos que você use o Converse APIpara implementar mensagens em seu aplicativo. A ferramenta Converse APIfornece um conjunto unificado de parâmetros que funcionam em todos os modelos que oferecem suporte a mensagens. Para obter mais informações, consulte Conduza uma conversa com o Converse Operações do API.
Mistral AI os modelos estão disponíveis sob a licença Apache 2.0.
Modelos compatíveis
Você pode usar o seguinte Mistral AI modelos com os exemplos de código nesta página..
-
Mistral Large 2 (24.07)
É necessário o ID do modelo que deseja usar. Para obter o ID do modelo, consulte Modelos de base compatíveis no Amazon Bedrock.
Exemplos de solicitação e resposta
Mistral AI Exemplo de modelo de invocação Large 2 (24.07).
import boto3
import json
bedrock = session.client('bedrock-runtime', 'us-west-2')
response = bedrock.invoke_model(
modelId='mistral.mistral-large-2407-v1:0',
body=json.dumps({
'messages': [
{
'role': 'user',
'content': 'which llm are you?'
}
],
})
)
print(json.dumps(json.loads(response['body']), indent=4))