本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。
建議的推論執行個體
AWS Inferentia 執行個體旨在為深度學習模型推論工作負載提供高效能和成本效益。具體來說,Inf2 執行個體類型使用 AWS 推論晶片和 AWS Neuron SDK
客戶可以使用 Inv2 執行個體,以最低的成本在雲端執行大規模的機器學習推論應用程式,例如搜尋、推薦引擎、電腦視覺、語音辨識、自然語言處理、個人化和詐騙偵測等。
注意
模型大小應為選取執行個體時所需考量的因素。如果模型超過執行個體的可用 RAM,請選取具有適用於應用程式的足夠記憶體的不同執行個體類型。
Amazon EC2 Inf2 執行個體
具有高達 16 個 AWS 推論晶片和 100 Gbps 的聯網輸送量。
如需開始使用 AWS 推論 DLAMI 的詳細資訊,請參閱。具有 DL AWS AMI 的推論芯片