本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。
建議的 GPU 執行個體
我們建議您使用 GPU 執行個體,用於大部分的深度學習 在 GPU 執行個體上訓練新模型的速度比 CPU 執行個體更快。當您有多重 GPU 執行個體或想跨多個具 GPU 執行個體使用分散式訓練時,可以用子線性方式擴展。
下列執行個體類型支援 DLAMI。如需 GPU 執行個體類型選項及其用途的詳細資訊,請參閱 EC2 執行個體類型
注意
模型大小應為選取執行個體時所需考量的因素。如果模型超過執行個體的可用 RAM,請選取具有適用於應用程式的足夠記憶體的不同執行個體類型。
Amazon EC2 P3 執行個體
擁有多達 8 個 NVIDIA 特斯拉 V100 GPU。 -
Amazon EC2 P4 實例
最多有 8 個 NVIDIA 特斯拉 A100 GPU。 -
Amazon EC2 P5 實例
最多有 8 個 NVIDIA 特斯拉 H100 GPU。 -
Amazon EC2 G3 實例
最多有 4 個 NVIDIA 特斯拉 M60 GPU。 -
Amazon EC2 G4 執行個體
擁有多達 4 個 NVIDIA T4 GPU。 -
Amazon EC2 G5 執行個體
擁有多達 8 個 NVIDIA A10 G GPU。 -
Amazon EC2 G6 執行個體
擁有多達 8 個 NVIDIA L4 GPU。
DLAMI 執行個體提供用於監控和最佳化 GPU 程序的工具。如需監視 GPU 處理程序的詳細資訊,請參閱GPU 監控和最佳化。
如需使用 G5G 執行個體的特定教學課程,請參閱《ARM64 DLAMI》。