本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
借助 Amazon P SageMaker artner AI 应用程序,用户可以访问由行业领先的应用程序提供商构建、发布和分发的生成式 AI 和机器学习 (ML) 开发应用程序。 合作伙伴 AI 应用程序已通过认证,可在 SageMaker 人工智能上运行。借助 Partner AI 应用程序,用户可以在不影响敏感数据安全性的前提下,加快和改进基于基础模型 (FM) 和经典 ML 模型构建解决方案的方式。数据完全保持在他们可信的安全配置内,并且永远不会与第三方共享。
工作方式
Partner AI 应用程序是完整的应用程序堆栈,包括亚马逊 Elastic Kubernetes Service 集群和一系列配套服务,其中可能包括应用程序负载均衡器、亚马逊关系数据库服务、亚马逊简单存储服务存储桶、亚马逊简单队列服务队列和 Redis 缓存。
这些服务应用程序可以在 SageMaker AI 域中的所有用户之间共享,并由管理员进行配置。通过购买订阅配置应用程序后,管理员可以授予 SageMaker AI 域用户直接从 Amazon Studio AWS Marketplace、Amazon Uni SageMaker fied SageMaker Studio(预览版)或使用预签名 URL 访问合作伙伴 AI 应用程序的权限。有关从 Studio 启动应用程序的信息,请参阅启动亚马逊 SageMaker Studio。
合作伙伴 AI 应用程序为管理员和用户提供以下好处。
-
管理员使用 SageMaker AI 控制台浏览、发现、选择和配置合作伙伴 AI 应用程序,供其数据科学和机器学习团队使用。部署合作伙伴 AI 应用程序后, SageMaker AI 会在服务托管 AWS 账户上运行它们。这大大减少了与构建和操作这些应用程序相关的运营开销,并有助于提高客户数据的安全性和隐私性。
-
数据科学家和机器学习开发人员可以在 Amazon Studi SageMaker o 或 Amazon Uni SageMaker fied Studio(预览版)的机器学习开发环境中访问合作伙伴人工智能应用程序。他们可以使用 Partner AI 应用程序来分析他们在 SageMaker AI 上创建的数据、实验和模型。这最大限度地减少了上下文切换,有助于加快构建基础模型并将新的生成人工智能功能推向市场。
与集成 AWS 服务
合作伙伴 AI 应用程序使用现有 AWS Identity and Access Management (IAM) 配置进行授权和身份验证。因此,用户无需提供单独的凭证即可从 Amazon SageMaker Studio 访问每个合作伙伴 AI 应用程序。有关使用合作伙伴 AI 应用程序进行授权和身份验证的更多信息,请参阅设置合作伙伴 AI 应用程序。
合作伙伴 AI 应用程序还与集成 Amazon CloudWatch ,以提供运营监控和管理。客户还可以浏览合作伙伴 AI 应用程序,并从中获取有关它们的详细信息,例如功能、客户体验和定价 AWS Management Console。有关的信息 Amazon CloudWatch,请参阅Amazon CloudWatch 工作原理。
支持的类型
合作伙伴 AI 应用程序支持以下类型:
-
Comet
-
Deepchecks
-
Fiddler
-
Lakera Guard
当管理员启动 Partner AI 应用程序时,他们必须选择用于启动合作伙伴 AI 应用程序的实例集群的配置。此配置被称为合作伙伴 AI 应用程序的等级。合作伙伴 AI 应用程序的等级可以是以下值之一:
-
small
-
medium
-
large
以下各节提供了有关每种合作伙伴 AI 应用程序类型的信息,以及有关合作伙伴 AI 应用程序等级值的详细信息。
Comet 为人工智能开发人员提供 end-to-end模型评估平台,包括法学硕士评估、实验跟踪和生产监控。
根据工作负载,我们建议使用以下合作伙伴 AI 应用程序等级:
-
small
— 建议最多 5 个用户和 20 个正在运行的作业使用。 -
medium
— 建议最多 50 个用户和 100 个正在运行的作业使用。 -
large
— 建议最多 500 个用户和 100 多个正在运行的作业使用。
注意
SageMaker AI 不支持查看 Comet 用户界面作为 Jupyter 笔记本输出的一部分。
AI 应用程序开发人员和利益相关者可以使用 Deepchecks 在从部署前和内部实验到生产的整个生命周期中,持续验证基于 LLM 的应用程序,包括特性、性能指标和潜在的陷阱。
根据工作负载所需的速度,我们建议使用以下 Partner AI 应用程序等级:
-
small
— 每秒处理 200 个代币。 -
medium
— 每秒处理 500 个代币。 -
large
— 每秒处理 1300 个代币。
这些区域有:Fiddler AI Observability Platform 有助于验证、监控和分析生产中的机器学习模型,包括表格、深度学习、计算机视觉和自然语言处理模型。
根据工作负载所需的速度,我们建议使用以下 Partner AI 应用程序等级:
-
small
— 处理 5 个模型、100 个功能和 20 次迭代的 1000 万个事件大约需要 53 分钟。 -
medium
— 处理 5 个模型、100 个功能和 20 次迭代的 1000 万个事件大约需要 23 分钟。 -
large
— 处理 5 个模型、100 个功能和 100 次迭代的 1000 万个事件大约需要 27 分钟。
Lakera Guard 是一款低延迟 AI 应用程序防火墙,用于保护生成式 AI 应用程序免受特定于 AI 的威胁。
根据工作负载,我们建议使用以下合作伙伴 AI 应用程序等级:
-
small
— 建议用于最多 20 个机器人流程自动化 (RPAs)。 -
medium
— 建议最多 100 人使用 RPAs。 -
large
— 建议使用最多 200 个 RPAs。