選取您的 Cookie 偏好設定

我們使用提供自身網站和服務所需的基本 Cookie 和類似工具。我們使用效能 Cookie 收集匿名統計資料,以便了解客戶如何使用我們的網站並進行改進。基本 Cookie 無法停用,但可以按一下「自訂」或「拒絕」以拒絕效能 Cookie。

如果您同意,AWS 與經核准的第三方也會使用 Cookie 提供實用的網站功能、記住您的偏好設定,並顯示相關內容,包括相關廣告。若要接受或拒絕所有非必要 Cookie,請按一下「接受」或「拒絕」。若要進行更詳細的選擇,請按一下「自訂」。

SageMaker AI XGBoost 演算法的運作方式

焦點模式
SageMaker AI XGBoost 演算法的運作方式 - Amazon SageMaker AI

本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。

本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。

XGBoost 為一款熱門的有效率梯度提升樹演算法開放原始碼實作。梯度提升是受監管的學習演算法,會藉由結合一組較簡單、較脆弱的模型預估值來嘗試精確預測目標變數。

使用梯度提升進行迴歸時,較弱的學習者是迴歸樹,而每個迴歸樹都會將輸入資料點映射到包含連續分數的其中一個樹葉。XGBoost 會將標準化 (L1 and L2) 目標函式最小化,結合凸面遺失函式 (根據預測與目標輸出間的差異) 以及模型複雜度的懲罰詞彙 (也就是回歸樹函式)。訓練將反覆執行,加入預測舊樹的殘差或錯誤的新樹狀,接著將舊樹與新樹結合以執行最終預測。這便稱為梯度提升,因為它使用梯度下降演算法來降低新增模型時造成的遺失。

下面是關於梯度樹提升如何運作的簡要說明。

說明漸層樹增強的圖表。

如需 XGBoost 的詳細資訊,請參閱:

下一個主題:

超參數

上一個主題:

範例筆記本
隱私權網站條款Cookie 偏好設定
© 2025, Amazon Web Services, Inc.或其附屬公司。保留所有權利。