Amazon EC2 執行個體類型 - Amazon Elastic Compute Cloud

本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。

Amazon EC2 執行個體類型

啟動執行個體時,您指定的執行個體類型將決定執行個體所用的主機電腦硬體。每個執行個體類型均提供不同的運算、記憶體和儲存功能,且會依照這些功能分組為不同的執行個體系列。請根據您計劃在執行個體上執行之應用程式或軟體的需求選取執行個體類型。

Amazon EC2 會將主機電腦的部分資源 (例如 CPU、記憶體和執行個體儲存體) 專用於特定執行個體。Amazon EC2 在執行個體間共用主機電腦的其他資源,例如網路和磁碟子系統。如果主機電腦上的每個執行個體嘗試對其中一項共用資源作最大的利用,該資源會平均分配給每個執行個體。但是,當某一資源使用率較低時,執行個體便能使用該資源較高的比例 (需有資源可用)。

每個執行個體類型從共同資源獲得的最低效能可能更高或更低。例如,具有高 I/O 效能的執行個體類型會分配到較多的共用資源。分配較多的共用資源,也可減少 I/O 效能的變動。對多數的應用程式來說,中等的 I/O 效能即堪使用。但是,對於需要更高或更一致 I/O 效能的應用程式,請考慮使用具有較高 I/O 效能的執行個體類型。

可用的執行個體類型

Amazon EC2 提供各式各樣的最佳化執行個體類型,以滿足不同的使用案例。執行個體類型包含 CPU、記憶體、儲存體和聯網功能的各種組合,供您靈活選擇適用於應用程式的適當資源組合。每個執行個體類型都包含一個或多個執行個體大小,可讓您根據目標工作負載的需求擴展資源。如需詳細資訊,請參閱 Amazon EC2 執行個體類型指南中的執行個體類型

實例類型命名慣例

名稱取決於執行個體系列、層代、處理器系列、功能和大小。如需詳細資訊,請參閱 Amazon EC2 執行個體類型指南中的命名慣例

尋找執行個體類型

若要判斷哪些執行個體類型符合您的需求,例如支援的區域、運算資源或儲存資源,請參閱尋找 Amazon EC2 執行個體類型Amazon EC2 執行個體類型指南

如需有關功能和使用案例的詳細資訊,請參閱 Amazon EC2 執行個體類型詳細資訊。

硬體規格

如需詳細的執行個體類型規格,請參閱 Amazon EC2 執行個體類型指南中的格。如需定價資訊,請參閱 Amazon EC2 隨需定價

為了決定最符合您需求的執行個體類型,我們建議您啟動執行個體並使用您自己的基準參考應用程式。由於您必須為執行個體按秒數付費,因此在作決定前先測試多個執行個體類型是比較方便且省錢的方式。假如您在作決定後需要變更,也可稍後再變更執行個體類型。如需詳細資訊,請參閱 變更執行個體類型

Intel 處理器功能

在 Intel 處理器上執行的 Amazon EC2 執行個體可能包含下列功能。並非所有下列處理器功能都受到所有執行個體類型的支援。如需每種執行個體類型可用功能的詳細資訊,請參閱 Amazon EC2 執行個體類型。

  • Intel AES New Instructions (AES-NI) – Intel AES-NI 加密指令集改進了原先 Advanced Encryption Standard (AES) 的演算法,可以提供更快的資料保護和更佳的安全性。所有最新一代的 EC2 執行個體都支援此處理器功能。

  • Intel Advanced Vector Extensions (Intel AVX、Intel AVX2 和 Intel AVX-512) – Intel AVX 和 Intel AVX2 是 256 位元,而 Intel AVX-512 是 512 位元指令集延伸,專為浮點 (FP) 密集型應用程式所設計。Intel AVX instructions 可提升如圖片和音效/影片處理、科學模擬、財務分析、3D 模組化與分析等應用程式的效能。只有以 HVM AMI 啟動的執行個體可使用這些功能。

  • Intel Turbo Boost Technology (Intel 渦輪加速技術) – Intel Turbo Boost Technology (Intel 渦輪加速技術) 處理器會自動執行核心,比基礎操作頻率更快。

  • Intel Deep Learning Boost (Intel DL Boost) – 可加速 AI 深度學習使用案例。第二代 Intel Xeon 可擴充處理器透過新的向量神經網路指令 (VNNI/INT8) 擴展 Intel AVX-512,相較於前一代 Intel Xeon 可擴充處理器 (搭配 FP32),大幅提升了影像辨識 / 切割、物件偵測、語音辨識、語言翻譯、推薦系統、強化學習等的深度學習推斷效能。VNNI 可能無法與所有 Linux 發行版相容。

    下列執行個體支援 VNNI:M5nR5nM5dnM5znR5bR5dnD3D3enC6iC5C5d 執行個體僅針對 12xlarge24xlarge 以及 metal 執行個體支援 VNNI。

可能會因業界對 64 位元 CPU 的命名慣例而產生混淆。自晶片製造商 Advanced Micro Devices (AMD) 成功推出首款以 Intel x86 指令集為基礎的商用 64 位元架構後,該架構自此便廣泛統稱為 AMD64,無論產品來自哪一間晶片製造商。Windows 和多個 Linux 發行版本也遵照此作法。這說明了為何執行 Ubuntu 或 Windows 之執行個體上的內部系統資訊會顯示 CPU 架構為 AMD64,即使該執行個體是在 Intel 硬體上執行。

AWS 重力子處理器

AWS Graviton 是一系列處理器,旨在為您在 Amazon EC2 執行個體上執行的工作負載提供最優惠的價格效能。

如需詳細資訊,請參閱重力子入門

AWS 草属

AWS Trainium 提供支援的執行個體專為高效能、具成本效益的深度學習訓練而打造。您可以使用這些執行個體來訓練自然語言處理、電腦視覺,以及廣泛應用程式所使用的推薦模型,例如語音辨識、建議、詐騙偵測,以及影像和影片分類。在常見的 ML 架構中使用現有的工作流程,例如 PyTorch 和 TensorFlow。

AWS 推論

AWS Inferentia 提供支援的執行個體專為加速機器學習而設計。它們提供高效能和低延遲的機器學習推論。這些執行個體已進行最佳化,適用於部署不同應用的深度學習 (DL) 模型,例如自然語言處理、物件偵測與分類、內容個人化與篩選,以及語音辨識等應用。

您可以透過多種方式開始使用:

  • 使用完全受管理的服務 SageMaker,是開始使用機器學習模型的最簡單方法。如需詳細資訊,請參閱 Amazon SageMaker 發人員指南 SageMaker中的入門使用。

  • 使用深度學習 AMI 啟動 Inf1 或 Inf2 執行個體。如需詳細資訊,請參閱 AWS Deep Learning AMI 開發人員指南中的具有 DLAMI 的AWS Inferentia

  • 使用您自己的 AMI 啟動 Inf1 或 Inf2 執行個體,並安裝 AWS Neuron SDK,以便能夠編譯、執行和分析 AWS Inferentia 的深度學習模型。

  • 使用 Inf1 或 Inf2 執行個體和最佳化 Amazon ECS 的 AMI 啟動容器執行個體。若要取得更多資訊,請參閱 Amazon Elastic Container Service Developer Guide中的 Amazon Linux 2 (Inferentia) AMI

  • 建立具有執行 Inf1 執行個體之節點的 Amazon EKS 叢集。如需詳細資訊,請參閱 Amazon EKS 使用者指南中的 Inferentia 支援

AMI 虛擬化類型

執行個體的虛擬化類型由用來啟動執行個體的 AMI 決定。最新一代的執行個體類型僅支援硬體虛擬機器 (HVM)。上一代的某些執行個體類型支援半虛擬 (PV),有些 AWS 區域支援 PV 執行個體。如需詳細資訊,請參閱 Linux AMI 虛擬化類型

為獲得最高效能,我們建議您使用 HVM AMI。此外,需要 HVM AMI 才能充分利用增強型聯網。HVM 虛擬化使用平台提供的 AWS 硬體輔助技術。透過 HVM 虛擬化,訪客 VM 便能如同在原生硬體平台上一般執行,只是仍是使用全虛擬化 (PV) 網路和儲存驅動程式來提升效能。