Crie um modelo personalizado (AWS SDKs) - Amazon Bedrock

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Crie um modelo personalizado (AWS SDKs)

Para criar um modelo personalizado a partir de um modelo SageMaker Amazon Nova treinado por IA armazenado no Amazon S3, você usa CreateCustomModela operação de API. Você pode usar o código a seguir para criar um modelo personalizado com o SDK para Python (Boto3). O código cria um modelo personalizado e, em seguida, verifica seu status até que o modelo esteja ACTIVE pronto para uso.

Para usar o código, atualize os parâmetros a seguir. A amostra de código também inclui parâmetros opcionais, como clientRequestToken idempotência e marcação modelTags de recursos.

  • ModelName — Dê ao modelo um nome exclusivo.

  • S3URi — Especifique o caminho para o bucket Amazon S3 gerenciado pela Amazon que armazena seus artefatos de modelo. SageMaker A IA cria esse bucket quando você executa seu primeiro trabalho de treinamento de SageMaker IA.

  • RoLearn — Especifique o Amazon Resource Name (ARN) de uma função de serviço do IAM que o Amazon Bedrock assume para realizar tarefas em seu nome. Para obter mais informações sobre a criação do perfil, consulte Crie uma função de serviço para importar modelos pré-treinados.

  • modelKmsKeyArn (opcional) — Especifique uma AWS KMS chave para criptografar o modelo no Amazon Bedrock. Se você não fornecer uma AWS KMS chave, o Amazon Bedrock usa uma AWS KMS chave AWS gerenciada para criptografar o modelo. Para obter informações sobre criptografia, consulteCriptografia de modelos personalizados importados.

Depois de criar o modelo personalizado, o modelo aparece na ListCustomModelsresposta com um customizationType deimported. Para rastrear o status do novo modelo, você usa a operação GetCustomModelda API.

import boto3 import uuid from botocore.exceptions import ClientError import time def create_custom_model(bedrock_client): """ Creates a custom model in Amazon Bedrock from a SageMaker AI-trained Amazon Nova model stored in Amazon S3. Args: bedrock_client: The Amazon Bedrock client instance Returns: dict: Response from the CreateCustomModel API call """ try: # Create a unique client request token for idempotency client_request_token = str(uuid.uuid4()) # Define the model source configuration model_source_config = { 's3DataSource': { 's3Uri': 's3://amzn-s3-demo-bucket/folder/', } } # Create the custom model response = bedrock_client.create_custom_model( # Required parameters modelName='modelName', roleArn='serviceRoleArn', modelSourceConfig=model_source_config, # Optional parameters clientRequestToken=client_request_token, modelKmsKeyArn='keyArn', modelTags=[ { 'key': 'Environment', 'value': 'Production' }, { 'key': 'Project', 'value': 'AIInference' } ] ) print(f"Custom model creation initiated. Model ARN: {response['modelArn']}") return response except ClientError as e: print(f"Error creating custom model: {e}") raise def list_custom_models(bedrock_client): """ Lists all custom models in Amazon Bedrock. Args: bedrock_client: An Amazon Bedrock client. Returns: dict: Response from the ListCustomModels API call """ try: response = bedrock_client.list_custom_models() print(f"Total number of custom models: {len(response['modelSummaries'])}") for model in response['modelSummaries']: print("ARN: " + model['modelArn']) print("Name: " + model['modelName']) print("Status: " + model['modelStatus']) print("Customization type: " + model['customizationType']) print("------------------------------------------------------") return response except ClientError as e: print(f"Error listing custom models: {e}") raise def check_model_status(bedrock_client, model_arn): """ Checks the status of a custom model creation. Args: model_arn (str): The ARN of the custom model bedrock_client: An Amazon Bedrock client. Returns: dict: Response from the GetCustomModel API call """ try: max_time = time.time() + 60 * 60 # 1 hour while time.time() < max_time: response = bedrock_client.get_custom_model(modelIdentifier=model_arn) status = response.get('modelStatus') print(f"Job status: {status}") if status == 'Failed': print(f"Failure reason: {response.get('failureMessage')}") break if status == 'Active': print("Model is ready for use.") break time.sleep(60) except ClientError as e: print(f"Error checking model status: {e}") raise def main(): bedrock_client = boto3.client(service_name='bedrock', region_name='REGION') # Create the custom model model_arn = create_custom_model(bedrock_client)["modelArn"] # Check the status of the model if model_arn: check_model_status(bedrock_client, model_arn) # View all custom models list_custom_models(bedrock_client) if __name__ == "__main__": main()