Inicio rápido - Amazon Bedrock

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Inicio rápido

En esta sección, le mostraremos cómo empezar a utilizar Amazon Bedrock en unos minutos. Usaremos las API Responses y Chat Completions, compatibles con OpenAI APIs, y las API Invoke y Converse para mostrarte cómo ejecutar una solicitud de inferencia. Consulte APIs la lista completa. Build

Paso 1: Cuenta de AWS: si ya tiene una cuenta de AWS, omita este paso y vaya al paso 2. Si es la primera vez que utiliza AWS, regístrese para obtener una cuenta de AWS y siga las instrucciones.

Paso 2: Clave de API: una vez que tenga una cuenta de AWS, podrá crear una clave de API a largo plazo para autenticar sus solicitudes en Amazon Bedrock. Para ello, vaya al servicio Amazon Bedrock en la consola de AWS y genere una clave a largo plazo. Para obtener más información, consulte la sección de claves de API en el capítulo Creación.

Paso 3: Obtenga el SDK: para usar esta guía de introducción, debe tener Python ya instalado. A continuación, instale el software correspondiente en función del APIs que esté utilizando.

Responses/Chat Completions API
pip install boto3 openai
Invoke/Converse API
pip install boto3

Paso 4: Defina las variables de entorno: configure su entorno para que utilice la clave API para la autenticación.

Responses/Chat Completions API
OPENAI_API_KEY="<provide your long term key>" OPENAI_BASE_URL="https://bedrock-mantle.<your-region>.api.aws/v1"
Invoke/Converse API
AWS_BEARER_TOKEN_BEDROCK="<provide your long term key>"

Paso 5: Ejecute su primera solicitud de inferencia: Amazon Bedrock admite más de 100 modelos de base. Elija un modelo y, a continuación, utilice el siguiente código de Python para ejecutar la primera solicitud de inferencia. Guarde el archivo como bedrock-first-request.py

Responses API
from openai import OpenAI client = OpenAI() response = client.responses.create( model="openai.gpt-oss-120b", input="Can you explain the features of Amazon Bedrock?" ) print(response)
Chat Completions API
from openai import OpenAI client = OpenAI() response = client.chat.completions.create( model="openai.gpt-oss-120b", messages=[{"role": "user", "content": "Can you explain the features of Amazon Bedrock?"}] ) print(response)
Invoke API
import json import boto3 client = boto3.client('bedrock-runtime', region_name='us-east-1') response = client.invoke_model( modelId='anthropic.claude-opus-4-6-v1', body=json.dumps({ 'anthropic_version': 'bedrock-2023-05-31', 'messages': [{ 'role': 'user', 'content': 'Can you explain the features of Amazon Bedrock?'}], 'max_tokens': 1024 }) ) print(json.loads(response['body'].read()))
Converse API
import boto3 client = boto3.client('bedrock-runtime', region_name='us-east-1') response = client.converse( modelId='anthropic.claude-opus-4-6-v1', messages=[ { 'role': 'user', 'content': [{'text': 'Can you explain the features of Amazon Bedrock?'}] } ] ) print(response)

Ejecute el código con Python mediante el comando:

python3 bedrock-first-request.py

Deberías ver el resultado de tu solicitud de inferencia.

Para obtener más información sobre el uso APIs de otros puntos finales, consulte. Build