SUS05-BP04 优化基于硬件的计算加速器的使用
优化加速型计算实例的使用,以减少工作负载的物理基础架构需求。
常见反面模式:
-
不监控 GPU 使用情况。
-
将通用实例用于工作负载,而专用实例可以提供更高的性能、更低的成本和更高的性能功耗比。
-
使用基于硬件的计算加速器来完成任务,而使用基于 CPU 的替代方案能更高效地完成任务。
建立此最佳实践的好处:通过优化基于硬件的加速器的使用,可以减少工作负载的物理基础架构需求。
在未建立这种最佳实践的情况下暴露的风险等级:中等
实施指导
如果需要高处理能力,可以受益于使用加速型计算实例,这些实例提供对基于硬件的计算加速器的访问,例如图形处理单元(GPU)和现场可编程门阵列(FPGA)。这些硬件加速器能够比基于 CPU 的替代方案更有效地执行某些功能,例如图形处理或数据模式匹配。许多加速工作负载(如渲染、转码和机器学习)在资源使用方面变化很大。仅在需要时运行此硬件,并在不需要时自动停用它们,以最大限度地减少资源消耗。
实施步骤
-
确定哪些加速型计算实例可以满足您的要求。
-
对于机器学习工作负载,请利用特定于工作负载的专用硬件,例如 AWS Trainium
、AWS Inferentia 和 Amazon EC2 DL1 。Inf2 等 AWS Inferentia 实例,相比同类 Amazon EC2 实例,性能功耗比提升了 50% 。 -
收集加速型计算实例的使用情况指标。例如,可以使用 CloudWatch 代理收集 GPU 的指标(例如
utilization_gpu
和utilization_memory
),如使用 Amazon CloudWatch 收集 NVIDIA GPU 指标中所示。 -
优化硬件加速器的代码、网络运营和设置,确保底层硬件得到充分利用。
-
使用最新的高性能库和 GPU 驱动程序。
-
使用自动化功能在不使用 GPU 实例时将其释放。
资源
相关文档:
相关视频:
-
AWS re:Invent 2021 - How to select Amazon EC2 GPU instances for deep learning
-
AWS Online Tech Talks - Deploying Cost-Effective Deep Learning Inference
-
AWS re:Invent 2022 - [NEW LAUNCH!] Introducing AWS Inferentia2-based Amazon EC2 Inf2 instances
-
AWS re:Invent 2022 - Accelerate deep learning and innovate faster with AWS Trainium
-
AWS re:Invent 2022 - Deep learning on AWS with NVIDIA: From training to deployment