建議的推論執行個體 - 深度學習 AMI

本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。

建議的推論執行個體

AWS Inferentia 執行個體旨在為深度學習模型推論工作負載提供高效能和成本效益。具體來說,Inf2 執行個體類型使用 AWS 推論晶片和 AWS Neuron SDK,這與熱門的機器學習架構 (例如和) 整合。 TensorFlow PyTorch

客戶可以使用 Inv2 執行個體,以最低的成本在雲端執行大規模的機器學習推論應用程式,例如搜尋、推薦引擎、電腦視覺、語音辨識、自然語言處理、個人化和詐騙偵測等。

注意

模型大小應為選取執行個體時所需考量的因素。如果模型超過執行個體的可用 RAM,請選取具有適用於應用程式的足夠記憶體的不同執行個體類型。

如需開始使用 AWS 推論 DLAMI 的詳細資訊,請參閱。具有 DL AWS AMI 的推論芯片

接下來

推薦的培根執行個體