选择您的 Cookie 首选项

我们使用必要 Cookie 和类似工具提供我们的网站和服务。我们使用性能 Cookie 收集匿名统计数据,以便我们可以了解客户如何使用我们的网站并进行改进。必要 Cookie 无法停用,但您可以单击“自定义”或“拒绝”来拒绝性能 Cookie。

如果您同意,AWS 和经批准的第三方还将使用 Cookie 提供有用的网站功能、记住您的首选项并显示相关内容,包括相关广告。要接受或拒绝所有非必要 Cookie,请单击“接受”或“拒绝”。要做出更详细的选择,请单击“自定义”。

SageMaker HyperPod 食谱

聚焦模式
SageMaker HyperPod 食谱 - 亚马逊 SageMaker AI

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

使用 Amazon SageMaker HyperPod 食谱开始训练和微调公开可用的基础模型。要查看可用食谱,请参阅SageMaker HyperPod食谱

这些配方是针对以下模型系列的预配置训练配置:

你可以在内部运行食谱, SageMaker HyperPod 也可以作为 SageMaker 训练作业运行食谱。您可以使用 Amazon SageMaker HyperPod 训练适配器作为框架来帮助您运行 end-to-end训练工作流程。训练适配器基于 NVIDIA NeMo 框架和 N euronx 分布式训练软件包构建。如果您熟悉使用训练适配器 NeMo,则使用训练适配器的过程是相同的。训练适配器在您的集群上运行配方。

该图显示了 SageMaker HyperPod 配方工作流程。顶部的 “食谱” 图标会进入 “HyperPod 食谱启动器” 盒子。此框连接到标有 “Cluster:Slurm、K8s...” 的较大部分,其中包含三个 GPU 图标以及相关的配方文件。集群部分的底部标有 “使用 HyperPod 训练适配器进行训练”。

您也可以通过定义自己的自定义配方来训练自己的模型。

下表概述了 SageMaker HyperPod当前支持的预定义配方和启动脚本。

可用的预训练模型、配方和启动脚本
模型 大小 Sequence (序列) Nodes 实例 Accelerator 配方 Script
Llama3.2 11b 8192 4 ml.p5.48xlarge Nvidia H100 link link
Llama3.2 90b 8192 32 ml.p5.48xlarge Nvidia H100 link link
Llama3.2 1b 8192 1 ml.p5.48xlarge Nvidia H100 link link
Llama3.2 3b 8192 1 ml.p5.48xlarge Nvidia H100 link link
Llama3.1 70b 16384 32 ml.p5.48xlarge Nvidia H100 link link
Llama3.1 70b 16384 64 ml.p5.48xlarge Nvidia H100 link link
Llama3.1 70b 8192 32 ml.p5.48xlarge Nvidia H100 link link
Llama3.1 70b 8192 64 ml.p5.48xlarge Nvidia H100 link link
Llama3 70b 8192 16 ml.trn1.32xlarge AWS TRN link link
Llama3.1 8b 16384 16 ml.p5.48xlarge Nvidia H100 link link
Llama3.1 8b 16384 32 ml.p5.48xlarge Nvidia H100 link link
Llama3.1 8b 8192 16 ml.p5.48xlarge Nvidia H100 link link
Llama3.1 8b 8192 32 ml.p5.48xlarge Nvidia H100 link link
Llama3 8b 8192 4 ml.trn1.32xlarge AWS TRN link link
Llama3.1 8b 8192 16 ml.p5.48xlarge Nvidia H100 link 不适用
Mistral 7b 16384 16 ml.p5.48xlarge Nvidia H100 link link
Mistral 7b 16384 32 ml.p5.48xlarge Nvidia H100 link link
Mistral 7b 8192 16 ml.p5.48xlarge Nvidia H100 link link
Mistral 7b 8192 32 ml.p5.48xlarge Nvidia H100 link link
Mixtral 22b 16384 32 ml.p5.48xlarge Nvidia H100 link link
Mixtral 22b 16384 64 ml.p5.48xlarge Nvidia H100 link link
Mixtral 22b 8192 32 ml.p5.48xlarge Nvidia H100 link link
Mixtral 22b 8192 64 ml.p5.48xlarge Nvidia H100 link link
Mixtral 7b 16384 16 ml.p5.48xlarge Nvidia H100 link link
Mixtral 7b 16384 32 ml.p5.48xlarge Nvidia H100 link link
Mixtral 7b 8192 16 ml.p5.48xlarge Nvidia H100 link link
Mixtral 7b 8192 32 ml.p5.48xlarge Nvidia H100 link link
可用的微调模型、配方和启动脚本
模型 方法 大小 序列长度 Nodes 实例 Accelerator 配方 Script
Llama3.1 QLoRA 405b 131072 2 ml.p5.48xlarge Nvidia H100 link link
Llama3.1 LoRa 405b 16384 6 ml.p5.48xlarge Nvidia H100 link link
Llama3.1 QLoRA 405b 16384 2 ml.p5.48xlarge Nvidia H100 link link
Llama3.1 LoRa 405b 16384 6 ml.p5.48xlarge Nvidia H100 link link
Llama3.1 QLoRA 405b 8192 2 ml.p5.48xlarge Nvidia H100 link link
Llama3.1 SFT 70b 16384 16 ml.p5.48xlarge Nvidia H100 link link
Llama3.1 LoRa 70b 16384 2 ml.p5.48xlarge Nvidia H100 link link
Llama3.1 SFT 70b 8192 10 ml.p5.48xlarge Nvidia H100 link link
Llama3.1 LoRa 70b 8192 1 ml.p5.48xlarge Nvidia H100 link link
Llama3.1 SFT 8b 16384 1 ml.p5.48xlarge Nvidia H100 link link
Llama3.1 LoRa 8b 16384 1 ml.p5.48xlarge 英伟达 H100 link link
Llama3.1 SFT 8b 8192 1 ml.p5.48xlarge 英伟达 H100 link link
Llama3.1 LoRa 8b 8192 1 ml.p5.48xlarge 英伟达 H100 link link
Llama3.1 SFT 70b 8192 32 ml.p4d.24xlarge 英伟达 A100 link link
Llama3.1 LoRa 70b 8192 20 ml.p4d.24xlarge 英伟达 A100 link link
Llama3.1 SFT 8b 8192 4 ml.p4d.24xlarge 英伟达 A100 link link
Llama3.1 LoRa 8b 8192 1 ml.p4d.24xlarge 英伟达 A100 link link
Llama3 SFT 8b 8192 1 ml.trn1.32xlarge AWS TRN link link

要开始使用教程,请参阅教程

隐私网站条款Cookie 首选项
© 2025, Amazon Web Services, Inc. 或其附属公司。保留所有权利。