選取您的 Cookie 偏好設定

我們使用提供自身網站和服務所需的基本 Cookie 和類似工具。我們使用效能 Cookie 收集匿名統計資料,以便了解客戶如何使用我們的網站並進行改進。基本 Cookie 無法停用,但可以按一下「自訂」或「拒絕」以拒絕效能 Cookie。

如果您同意,AWS 與經核准的第三方也會使用 Cookie 提供實用的網站功能、記住您的偏好設定,並顯示相關內容,包括相關廣告。若要接受或拒絕所有非必要 Cookie,請按一下「接受」或「拒絕」。若要進行更詳細的選擇,請按一下「自訂」。

大型模型推論 (LMI) 容器文件

焦點模式
大型模型推論 (LMI) 容器文件 - Amazon SageMaker AI

本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。

本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。

大型模型推論 (LMI) 容器文件提供於 Deep Java Library 文件網站。

本文件專為需要部署和最佳化 Amazon SageMaker AI 上大型語言模型 (LLMs) 的開發人員、資料科學家和機器學習工程師撰寫。它可協助您使用 LMI 容器,這是由 提供用於 LLM 推論的專用 Docker 容器 AWS。它提供概觀、部署指南、支援推論程式庫的使用者指南,以及進階教學課程。

透過使用 LMI 容器文件,您可以:

  • 了解 LMI 容器的元件和架構

  • 了解如何為您的使用案例選取適當的執行個體類型和後端

  • 使用 LLMs SageMaker

  • 使用量化、張量平行處理和連續批次處理等功能來最佳化效能

  • 為 SageMaker AI 端點建立基準和調整基準,以獲得最佳輸送量和延遲

隱私權網站條款Cookie 偏好設定
© 2025, Amazon Web Services, Inc.或其附屬公司。保留所有權利。