Slurm 多個佇列模式的指南 - AWS ParallelCluster

本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。

Slurm 多個佇列模式的指南

在這裡,您可以了解 AWS ParallelCluster 和 Slurm 管理佇列 (分割區) 節點,以及如何監控佇列和節點狀態。

概觀

擴展架構是以 Slurm的 Cloud Scheduling 指南和省電外掛程式。如需省電外掛程式的詳細資訊,請參閱 Slurm 省電指南 。在 架構中,可能提供給叢集的資源通常預先定義在 中 Slurm 組態為雲端節點。

雲端節點生命週期

在整個生命週期中,如果不是下列所有狀態,則雲端節點會輸入數項:POWER_SAVINGPOWER_UPpow_up)、 ALLOCATEDalloc) 和 POWER_DOWNpow_dn)。在某些情況下,雲端節點可能會進入 OFFLINE 狀態。下列清單詳細說明了雲端節點生命週期中這些狀態的幾個層面。

  • 狀態中的節點會在 中POWER_SAVING顯示尾碼 (例如 idle~sinfo~在此狀態下,沒有EC2執行個體正在備份節點。不過,Slurm 仍然可以將任務配置到節點。

  • 轉換為 POWER_UP 狀態的節點會在 中顯示#尾碼 (例如 idle#sinfo。節點會在 時自動轉換為 POWER_UP 狀態 Slurm 會將任務配置到 POWER_SAVING 狀態的節點。

    或者,您可以使用 命令,以su根使用者身分手動將節點轉換為 POWER_UP 狀態:

    $ scontrol update nodename=nodename state=power_up

    在此階段, ResumeProgram會叫用、啟動和設定EC2執行個體,以及節點轉換為 POWER_UP 狀態。

  • 目前可供使用的節點會在 中顯示沒有字尾 (例如 idlesinfo。節點設定並加入叢集後,即可執行任務。在此階段中,節點已正確設定並可供使用。

    作為一般規則,我們建議 Amazon EC2執行個體的數量與可用節點的數量相同。在大多數情況下,建立叢集後,靜態節點即可使用。

  • 轉換至 POWER_DOWN 狀態的節點會在 中顯示%尾碼 (例如 idle%sinfo。動態節點會在 之後自動進入 POWER_DOWN 狀態ScaledownIdletime。相反地,大多數情況下靜態節點不會關閉電源。不過,您可以使用 命令,以su根使用者身分手動將節點置於 POWER_DOWN 狀態:

    $ scontrol update nodename=nodename state=down reason="manual draining"

    在此狀態下,與節點相關聯的執行個體會終止,而節點會設回 POWER_SAVING 狀態,並在 之後使用ScaledownIdletime

    ScaledownIdletime 設定會儲存至 Slurm SuspendTimeout 組態設定。

  • 離線的節點會在 中顯示*尾碼 (例如 down*sinfo。如果 Slurm 控制器無法聯絡節點,或者如果停用靜態節點,且備份執行個體終止。

請考慮下列sinfo範例中顯示的節點狀態。

$ sinfo PARTITION AVAIL TIMELIMIT NODES STATE NODELIST efa up infinite 4 idle~ efa-dy-efacompute1-[1-4] efa up infinite 1 idle efa-st-efacompute1-1 gpu up infinite 1 idle% gpu-dy-gpucompute1-1 gpu up infinite 9 idle~ gpu-dy-gpucompute1-[2-10] ondemand up infinite 2 mix# ondemand-dy-ondemandcompute1-[1-2] ondemand up infinite 18 idle~ ondemand-dy-ondemandcompute1-[3-10],ondemand-dy-ondemandcompute2-[1-10] spot* up infinite 13 idle~ spot-dy-spotcompute1-[1-10],spot-dy-spotcompute2-[1-3] spot* up infinite 2 idle spot-st-spotcompute2-[1-2]

spot-st-spotcompute2-[1-2]efa-st-efacompute1-1節點已設定備份執行個體,且可供使用。ondemand-dy-ondemandcompute1-[1-2] 節點處於 POWER_UP 狀態,應該可在幾分鐘內使用。gpu-dy-gpucompute1-1 節點處於 POWER_DOWN 狀態,並在 ScaledownIdletime(預設為 10 分鐘) 後轉換為 POWER_SAVING 狀態。

所有其他節點都處於 POWER_SAVING 狀態,沒有EC2執行個體支援它們。

使用可用的節點

可用的節點由 Amazon EC2執行個體支援。根據預設,節點名稱可以直接用於執行個體 SSH (例如 ssh efa-st-efacompute1-1)。執行個體的私有 IP 地址可以使用 命令擷取:

$ scontrol show nodes nodename

檢查傳回NodeAddr欄位中的 IP 地址。

對於無法使用的節點,NodeAddr欄位不應指向執行中的 Amazon EC2執行個體。相反地,它應該與節點名稱相同。

任務狀態和提交

在大多數情況下提交的任務會立即配置到系統中的節點,或者如果所有節點都配置,則會置於待定狀態。

如果為任務配置的節點包含POWER_SAVING處於 狀態的任何節點,則任務會以 CF、 或 CONFIGURING 狀態開始。此時,任務會等待 POWER_SAVING 狀態中的節點轉換為 POWER_UP 狀態並變為可用。

為任務配置的所有節點都可用後,任務會進入 RUNNINGR) 狀態。

根據預設,所有任務都會提交至預設佇列 (在 中稱為分割區 Slurm)。 這由佇列名稱後面的字*尾表示。您可以使用-p任務提交選項來選取佇列。

所有節點都具有下列功能,可用於任務提交命令:

  • 執行個體類型 (例如 c5.xlarge

  • 節點類型 (這是 dynamicstatic。)

您可以使用 命令來查看特定節點的功能:

$ scontrol show nodes nodename

在傳回中,檢查AvailableFeatures清單。

考慮叢集的初始狀態,您可以透過執行 sinfo命令來檢視該狀態。

$ sinfo PARTITION AVAIL TIMELIMIT NODES STATE NODELIST efa up infinite 4 idle~ efa-dy-efacompute1-[1-4] efa up infinite 1 idle efa-st-efacompute1-1 gpu up infinite 10 idle~ gpu-dy-gpucompute1-[1-10] ondemand up infinite 20 idle~ ondemand-dy-ondemandcompute1-[1-10],ondemand-dy-ondemandcompute2-[1-10] spot* up infinite 13 idle~ spot-dy-spotcompute1-[1-10],spot-dy-spotcompute2-[1-3] spot* up infinite 2 idle spot-st-spotcompute2-[1-2]

請注意, spot是預設佇列。它以*尾碼表示。

將任務提交至預設佇列中的一個靜態節點 (spot)。

$ sbatch --wrap "sleep 300" -N 1 -C static

將任務提交至EFA佇列中的一個動態節點。

$ sbatch --wrap "sleep 300" -p efa -C dynamic

將任務提交至ondemand佇列中的八 (8) 個c5.2xlarge節點和兩 (2) 個t2.xlarge節點。

$ sbatch --wrap "sleep 300" -p ondemand -N 10 -C "[c5.2xlarge*8&t2.xlarge*2]"

將任務提交至gpu佇列中的一個GPU節點。

$ sbatch --wrap "sleep 300" -p gpu -G 1

使用 squeue命令考慮任務的狀態。

$ squeue JOBID PARTITION NAME USER ST TIME NODES NODELIST(REASON) 12 ondemand wrap ubuntu CF 0:36 10 ondemand-dy-ondemandcompute1-[1-8],ondemand-dy-ondemandcompute2-[1-2] 13 gpu wrap ubuntu CF 0:05 1 gpu-dy-gpucompute1-1 7 spot wrap ubuntu R 2:48 1 spot-st-spotcompute2-1 8 efa wrap ubuntu R 0:39 1 efa-dy-efacompute1-1

任務 7 和 8 (在 spotefa佇列中) 已在執行 ()R。任務 12 和 13 仍在設定 (CF),可能正在等待執行個體變成可用。

# Nodes states corresponds to state of running jobs $ sinfo PARTITION AVAIL TIMELIMIT NODES STATE NODELIST efa up infinite 3 idle~ efa-dy-efacompute1-[2-4] efa up infinite 1 mix efa-dy-efacompute1-1 efa up infinite 1 idle efa-st-efacompute1-1 gpu up infinite 1 mix~ gpu-dy-gpucompute1-1 gpu up infinite 9 idle~ gpu-dy-gpucompute1-[2-10] ondemand up infinite 10 mix# ondemand-dy-ondemandcompute1-[1-8],ondemand-dy-ondemandcompute2-[1-2] ondemand up infinite 10 idle~ ondemand-dy-ondemandcompute1-[9-10],ondemand-dy-ondemandcompute2-[3-10] spot* up infinite 13 idle~ spot-dy-spotcompute1-[1-10],spot-dy-spotcompute2-[1-3] spot* up infinite 1 mix spot-st-spotcompute2-1 spot* up infinite 1 idle spot-st-spotcompute2-2

節點狀態和功能

在大多數情況下,節點狀態會 AWS ParallelCluster 依據本主題前面所述的雲端節點生命週期中的特定程序,由 進行完整管理。

不過, AWS ParallelCluster 也會取代或終止 DOWNDRAINED 狀態中的運作狀態不佳節點,以及具有運作狀態不佳的備份執行個體節點。如需詳細資訊,請參閱clustermgtd

分割區狀態

AWS ParallelCluster 支援下列分割區狀態。A Slurm 分割區是 中的佇列 AWS ParallelCluster。

  • UP:表示分割區處於作用中狀態。這是分割區的預設狀態。在此狀態下,分割區中的所有節點都處於作用中狀態且可供使用。

  • INACTIVE:表示分割區處於非作用中狀態。在此狀態下,停用分割區的所有執行個體備份節點都會終止。不會為非作用中分割區中的節點啟動新的執行個體。

pcluster update-compute-fleet

  • 停止運算機群 - 執行下列命令時,所有分割區都會轉換為 INACTIVE 狀態,而 AWS ParallelCluster 程序會將分割區保持在 INACTIVE 狀態。

    $ pcluster update-compute-fleet --cluster-name testSlurm \ --region eu-west-1 --status STOP_REQUESTED
  • 啟動運算機群 - 執行下列命令時,所有分割區一開始都會轉換為 UP 狀態。不過, AWS ParallelCluster 處理程序不會讓分割區保持 UP 狀態。您需要手動變更分割區狀態。所有靜態節點都會在幾分鐘後可用。請注意,將分割區設定為 UP不會啟動任何動態容量。

    $ pcluster update-compute-fleet --cluster-name testSlurm \ --region eu-west-1 --status START_REQUESTED

update-compute-fleet 執行 時,您可以執行 pcluster describe-compute-fleet命令並檢查 ,以檢查叢集的狀態Status。下列列出可能的狀態:

  • STOP_REQUESTED:停止運算機群請求會傳送至叢集。

  • STOPPINGpcluster程序目前正在停止運算機群。

  • STOPPEDpcluster程序已完成停止程序、所有分割區都處於 INACTIVE 狀態,且所有運算執行個體都會終止。

  • START_REQUESTED:啟動運算機群請求會傳送至叢集。

  • STARTINGpcluster程序目前正在啟動叢集。

  • RUNNINGpcluster程序已完成啟動程序、所有分割區都處於 UP 狀態,而且幾分鐘後可以使用靜態節點。

  • PROTECTED:此狀態表示某些分割區具有一致的引導失敗。受影響的分割區處於非作用中狀態。請調查問題,然後執行 update-compute-fleet以重新啟用機群。

手動控制佇列

在某些情況下,您可能想要對節點或佇列 (在 中稱為分割區 Slurm)。您可以使用 scontrol命令,透過下列常見程序來管理叢集中的節點。

  • 啟動 POWER_SAVING 狀態的動態節點

    su根使用者身分執行 命令:

    $ scontrol update nodename=nodename state=power_up

    您也可以提交請求特定數量節點的預留位置sleep 1任務,然後依賴 Slurm 以啟動所需的節點數量。

  • 在 之前關閉動態節點 ScaledownIdletime

    建議您使用 命令將動態節點設定為 DOWN作為su根使用者:

    $ scontrol update nodename=nodename state=down reason="manually draining"

    AWS ParallelCluster 會自動終止和重設下降的動態節點。

    一般而言,我們不建議您POWER_DOWN直接使用 scontrol update nodename=nodename state=power_down命令將節點設定為 。這是因為 AWS ParallelCluster 會自動處理關機程序。

  • 停用佇列 (分割區) 或停止特定分割區中的所有靜態節點

    使用 命令將特定佇列設定為 INACTIVE作為su根使用者:

    $ scontrol update partition=queuename state=inactive

    這樣做會終止分割區中的所有執行個體備份節點。

  • 啟用佇列 (分割區)

    使用 命令UP將特定佇列設定為su根使用者:

    $ scontrol update partition=queuename state=up

擴展行為和調整

以下是正常擴展工作流程的範例:
  • 排程器會收到需要兩個節點的任務。

  • 排程器會將兩個節點轉換為 POWER_UP 狀態,並使用節點名稱ResumeProgram呼叫 (例如 queue1-dy-spotcompute1-[1-2])。

  • ResumeProgram 會啟動兩個 Amazon EC2執行個體,並指派私有 IP 地址和 主機名稱queue1-dy-spotcompute1-[1-2],等待 ResumeTimeout(預設期間為 30 分鐘,然後再重設節點。

  • 已設定執行個體並加入叢集。任務開始在執行個體上執行。

  • 任務完成並停止執行。

  • 設定 經過 SuspendTime (設定為 ScaledownIdletime) 後,排程器會將執行個體設定為 POWER_SAVING 狀態。排程器接著會queue1-dy-spotcompute1-[1-2]設定為 POWER_DOWN 狀態SuspendProgram,並使用節點名稱進行呼叫。

  • SuspendProgram 會呼叫兩個節點。節點會保持 POWER_DOWN 狀態,例如,在 idle% 中保持 SuspendTimeout(預設期間為 120 秒 (2 分鐘))。在 clustermgtd偵測到節點正在關閉電源後,它會終止備份執行個體。然後,它會轉換為queue1-dy-spotcompute1-[1-2]閒置狀態,並重設私有 IP 地址和主機名稱,以便為未來的任務開機。

如果發生錯誤,且特定節點的執行個體因某種原因而無法啟動,則會發生以下情況:
  • 排程器會收到需要兩個節點的任務。

  • 排程器會將兩個雲端爆量節點轉換為 POWER_UP 狀態ResumeProgram,並使用節點名稱進行呼叫 (例如 queue1-dy-spotcompute1-[1-2])。

  • ResumeProgram 僅啟動一 (1) 個 Amazon EC2執行個體,並設定 queue1-dy-spotcompute1-1,其中一 (1) 個執行個體 queue1-dy-spotcompute1-2無法啟動。

  • queue1-dy-spotcompute1-1 不會受到影響,並在達到 POWER_UP 狀態後上線。

  • queue1-dy-spotcompute1-2 會轉換為 POWER_DOWN 狀態,且任務會自動重新排入佇列,因為 Slurm 偵測到節點失敗。

  • queue1-dy-spotcompute1-2 (預設值為 120 秒 SuspendTimeout (2 分鐘)) 後即可使用。與此同時,任務會重新排入佇列,並可在另一個節點上開始執行。

  • 上述程序會重複執行,直到任務可以在可用的節點上執行,而不會發生失敗。

如有需要,有兩個時間參數可以調整:
  • ResumeTimeout (預設值為 30 分鐘)ResumeTimeout 控制時間 Slurm 會等待 ,再將節點轉換為停機狀態。

    • ResumeTimeout 如果您的安裝前/後程序花費近乎這麼長的時間,擴展可能很有用。

    • ResumeTimeout 如果發生問題,也是取代或重設節點之前 AWS ParallelCluster 等待的時間上限。如果在啟動或設定期間發生任何錯誤,則運算節點會自行終止。偵測到終止的執行個體時, AWS ParallelCluster 程序會取代節點。

  • SuspendTimeout (預設值為 120 秒 (2 分鐘))SuspendTimeout控制節點放回系統並準備好再次使用的速度。

    • 較短SuspendTimeout表示節點重設速度更快,且 Slurm 可以嘗試更頻繁地啟動執行個體。

    • 較長SuspendTimeout表示失敗的節點重設速度較慢。與此同時,Slurm 會嘗試使用其他節點。如果 SuspendTimeout 超過幾分鐘,Slurm 會嘗試循環瀏覽系統中的所有節點。較長SuspendTimeout的時間可能對大型系統 (超過 1,000 個節點) 有益,以降低對 的壓力 Slurm 當它嘗試經常重新佇列失敗的任務時。

    • 請注意, SuspendTimeout不代表 AWS ParallelCluster 等待終止節點備份執行個體的時間。POWER_DOWN 節點的備份執行個體會立即終止。終止程序通常會在幾分鐘內完成。不過,在此期間,節點會保持 POWER_DOWN 狀態,且無法供排程器使用。

架構的日誌

下列清單包含金鑰日誌。與 Amazon CloudWatch Logs 搭配使用的日誌串流名稱具有 格式 {hostname}.{instance_id}.{logIdentifier},其中 logIdentifier 遵循日誌名稱。

  • ResumeProgram: /var/log/parallelcluster/slurm_resume.log (slurm_resume)

  • SuspendProgram: /var/log/parallelcluster/slurm_suspend.log (slurm_suspend)

  • clustermgtd: /var/log/parallelcluster/clustermgtd.log (clustermgtd)

  • computemgtd: /var/log/parallelcluster/computemgtd.log (computemgtd)

  • slurmctld: /var/log/slurmctld.log (slurmctld)

  • slurmd: /var/log/slurmd.log (slurmd)

常見問題以及如何除錯:

無法啟動、開啟電源或加入叢集的節點

  • 動態節點:

    • 檢查ResumeProgram日誌,查看 ResumeProgram 是否已使用節點呼叫 。如果沒有,請檢查slurmctld日誌以判斷 Slurm 嘗試ResumeProgram使用節點呼叫 。請注意, 上的許可不正確ResumeProgram可能會導致其無訊息失敗。

    • 如果 ResumeProgram 已呼叫 ,請檢查是否已為節點啟動執行個體。如果執行個體未啟動,則應有清楚的錯誤訊息,說明執行個體為何無法啟動。

    • 如果執行個體已啟動,在引導程序期間可能會出現一些問題。從ResumeProgram日誌中尋找對應的私有 IP 地址和執行個體 ID,並在日誌中查看特定執行個體的對應引導 CloudWatch 日誌。

  • 靜態節點:

    • 檢查clustermgtd日誌,查看是否啟動節點的執行個體。如果執行個體未啟動,執行個體無法啟動的原因應該會明確出現錯誤。

    • 如果執行個體已啟動,則開機程序會出現一些問題。從clustermgtd日誌中尋找對應的私有 IP 和執行個體 ID,並在日誌中查看特定執行個體的對應引導 CloudWatch 日誌。

節點意外更換或終止,以及節點故障

  • 節點意外更換/終止:

    • 在大多數情況下, 會clustermgtd處理所有節點維護動作。若要檢查是否已clustermgtd取代或終止節點,請檢查clustermgtd日誌。

    • 如果clustermgtd已取代或終止節點,則應該會出現一則訊息,指出動作的原因。如果原因與排程器相關 (例如,節點為 DOWN),請查看slurmctld日誌以取得更多詳細資訊。如果原因與 Amazon EC2相關,請使用 Amazon CloudWatch 或 Amazon EC2主控台、 CLI或 等工具SDKs來檢查該執行個體的狀態或日誌。例如,您可以檢查執行個體是否有排程事件或 Amazon EC2 運作狀態檢查失敗。

    • 如果 clustermgtd未終止節點,請檢查是否已computemgtd終止節點,或是否已EC2終止執行個體以擷取 Spot 執行個體。

  • 節點失敗:

    • 在大多數情況下,如果節點失敗,任務會自動重新排入佇列。在slurmctld日誌中查看任務或節點失敗的原因,並從中評估情況。

更換或終止執行個體時失敗,關閉節點時失敗

  • 一般而言, clustermgtd會處理所有預期的執行個體終止動作。請查看clustermgtd日誌,了解為何無法取代或終止節點。

  • 對於失敗的動態節點ScaledownIdletime,請查看SuspendProgram日誌,看看slurmctld程序是否使用特定節點作為引數進行呼叫。備註實際上SuspendProgram不會執行任何特定動作。相反地,它只會在呼叫時記錄。所有執行個體終止和NodeAddr重設都由 完成clustermgtd。Slurm 會在 IDLE之後將節點轉換為 SuspendTimeout

其他問題:

  • AWS ParallelCluster 不會進行任務配置或擴展決策。它只會嘗試根據 啟動、終止和維護資源 Slurm的指示。

    如需任務配置、節點配置和擴展決策的問題,請參閱slurmctld日誌是否有錯誤。