pcluster update-cluster 사용하기 - AWS ParallelCluster

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

pcluster update-cluster 사용하기

AWS ParallelCluster 3.x에서 는 현재 클러스터를 생성하는 데 사용되는 설정과 구성 파일의 설정을 pcluster update-cluster 분석하여 문제를 확인합니다. 문제가 발견되면 해당 문제가 보고되고 문제 해결을 위해 취해야 할 단계가 표시됩니다. 예를 들어 InstanceType 컴퓨팅이 변경된 경우 업데이트를 진행하려면 먼저 컴퓨팅 플릿을 중지해야 합니다. 이 문제는 발견되면 보고됩니다. 차단 문제가 발견되지 않으면 업데이트 프로세스가 시작되고 변경 사항이 보고됩니다.

pcluster update-cluster --dryrun option를 사용하여 실행 전에 변경 사항을 확인할 수 있습니다. 자세한 내용은 pcluster update-cluster 예제 단원을 참조하십시오.

문제 해결에 대한 도움말은 AWS ParallelCluster 문제 해결 섹션을 참조하세요.

업데이트 정책: 정의

업데이트 정책: 업데이트에 대해 이 설정을 변경하려면 클러스터의 로그인 노드를 중지해야 합니다.

클러스터의 로그인 노드를 사용하는 동안에는 이러한 설정을 변경할 수 없습니다. 변경 사항을 되돌리거나 클러스터 로그인 노드를 중지해야 합니다. (각 풀의 수를 0으로 설정하여 클러스터의 로그인 노드를 중지할 수 있습니다). 클러스터의 로그인 노드가 중지된 후 클러스터(pcluster update-cluster)를 업데이트하여 변경 사항을 활성화할 수 있습니다.

참고

이 업데이트 정책은 AWS ParallelCluster 버전 3.7.0부터 지원됩니다.

업데이트 정책: 로그인 노드 풀을 추가할 수 있지만 풀을 제거하려면 클러스터의 모든 로그인 노드가 중지되어야 합니다.

풀을 제거하려면 클러스터의 모든 로그인 노드를 중지해야 합니다. (각 풀의 수를 0으로 설정하여 클러스터의 로그인 노드를 중지할 수 있습니다). 클러스터의 로그인 노드가 중지된 후 클러스터(pcluster update-cluster)를 업데이트하여 변경 사항을 활성화할 수 있습니다.

참고

이 업데이트 정책은 AWS ParallelCluster 버전 3.11.0부터 지원됩니다.

업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 풀의 로그인 노드를 중지해야 합니다.

풀의 로그인 노드를 사용하는 동안에는 이러한 설정을 변경할 수 없습니다. 변경 사항을 되돌리거나 풀의 로그인 노드를 중지해야 합니다. (풀의 수를 0으로 설정하여 풀의 로그인 노드를 중지할 수 있습니다). 풀의 로그인 노드가 중지된 후 클러스터(pcluster update-cluster)를 업데이트하여 변경 사항을 활성화할 수 있습니다.

참고

이 업데이트 정책은 AWS ParallelCluster 버전 3.11.0부터 지원됩니다.

업데이트 정책: 이 설정은 업데이트 중에 변경할 수 있습니다.

이 설정을 변경한 후 pcluster update-cluster를 사용하여 클러스터를 업데이트할 수 있습니다.

업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다.

이 설정을 변경한 후에는 클러스터를 업데이트할 수 없습니다. 원래 클러스터의 설정을 되돌리고 업데이트된 설정으로 새 클러스터를 생성해야 합니다. 나중에 원래 클러스터를 삭제할 수 있습니다. pcluster create-cluster를 사용하여 새 클러스터를 생성합니다. 원래 클러스터를 삭제하려면 pcluster delete-cluster를 사용합니다.

업데이트 정책: 이 설정은 업데이트 중에 분석되지 않습니다.

이 설정들은 변경할 수 있으며 pcluster update-cluster를 사용하여 클러스터가 업데이트됩니다.

업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지해야 합니다.

컴퓨팅 플릿이 존재하는 동안에는 이러한 설정을 변경할 수 없습니다. 변경 내용을 되돌리거나 컴퓨팅 플릿을 중지(pcluster update-compute-fleet 사용)해야 합니다. 컴퓨팅 플릿이 중지된 후 클러스터(pcluster update-cluster)를 업데이트하여 변경 사항을 활성화할 수 있습니다. 예를 들어 를 사용하는 경우 Slurm / SlurmQueues / ComputeResources - Name / MinCount > 0인 스케줄러, 컴퓨팅 플릿이 시작됩니다.

업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿 및 로그인 노드를 중지해야 합니다.

컴퓨팅 플릿이 있거나 로그인 노드가 사용 중인 경우 이러한 설정을 변경할 수 없습니다. 변경 사항을 되돌리거나 컴퓨팅 플릿 및 로그인 노드를 중지해야 합니다(를 사용하여 컴퓨팅 플릿을 중지할 수 있음pcluster update-compute-fleet). 컴퓨팅 플릿 및 로그인 노드가 중지된 후 클러스터(pcluster update-cluster)를 업데이트하여 변경 사항을 활성화할 수 있습니다.

업데이트 정책: 업데이트 중에는 이 설정을 줄일 수 없습니다.

이러한 설정은 변경할 수 있지만 줄일 수는 없습니다. 이러한 설정을 줄여야 하는 경우 원래 클러스터의 설정을 되돌리고 업데이트된 설정으로 새 클러스터를 생성해야 합니다. 나중에 원래 클러스터를 삭제할 수 있습니다. pcluster create-cluster를 사용하여 새 클러스터를 생성합니다. 원래 클러스터를 삭제하려면 pcluster delete-cluster를 사용합니다.

업데이트 정책: 이 설정을 변경하면 업데이트가 허용되지 않습니다. 강제로 업데이트하면 새 값이 무시되고 이전 값이 사용됩니다.

이 설정을 변경한 후에는 클러스터를 업데이트할 수 없습니다. 원래 클러스터의 설정을 되돌리고 업데이트된 설정으로 새 클러스터를 생성해야 합니다. 나중에 원래 클러스터를 삭제할 수 있습니다. pcluster create-cluster를 사용하여 새 클러스터를 생성합니다. 원래 클러스터를 삭제하려면 pcluster delete-cluster를 사용합니다.

업데이트 정책: 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.

이러한 설정은 변경할 수 있습니다. 컴퓨팅 플릿을 중지(pcluster update-compute-fleet 사용)하거나 QueueUpdateStrategy가 설정되어야 합니다. 컴퓨팅 플릿이 중지되거나 QueueUpdateStrategy가 설정된 이후에는 클러스터(pcluster update-cluster)를 업데이트하여 변경 사항을 활성화할 수 있습니다.

참고

이 업데이트 정책은 AWS ParallelCluster 버전 3.2.0부터 지원됩니다.

업데이트 정책: 이 목록 값 설정의 경우 업데이트 중에 새 값을 추가할 수 있으며, 또는 기존 값을 제거할 때 컴퓨팅 플릿을 중지해야 합니다.

업데이트 중에 이러한 설정의 새 값을 추가할 수 있습니다. 목록에 새 값을 추가한 후 (pcluster update-cluster)를 사용하여 클러스터를 업데이트할 수 있습니다.

목록에서 기존 값을 제거하려면 컴퓨팅 플릿을 중지(pcluster update-compute-fleet 사용)해야 합니다.

예를 들어 를 사용하는 경우 Slurm 스케줄러 및 새 인스턴스 유형을 인스턴스/InstanceType에 추가하면 컴퓨팅 플릿을 중지하지 않고도 클러스터를 업데이트할 수 있습니다. 인스턴스/InstanceType에서 기존 인스턴스 유형을 제거하려면 컴퓨팅 플릿을 먼저 중지해야 합니다(클러스터 update-compute-fleet 사용).

참고

이 업데이트 정책은 AWS ParallelCluster 버전 3.2.0부터 지원됩니다.

업데이트 정책: 대기열의 크기를 줄이려면 컴퓨팅 플릿을 중지하거나 로 설정해야 업데이트를 위해 TERMINATE 이 설정을 변경할 수 QueueUpdateStrategy 있습니다.

이러한 설정은 변경할 수 있지만 변경으로 인해 대기열 크기가 줄어들면 컴퓨팅 플릿을 중지하거나(클러스터 사용 update-compute-fleet) 로 설정해야 QueueUpdateStrategy 합니다TERMINATE. 컴퓨팅 플릿이 중지되거나 로 QueueUpdateStrategy 설정된 후 클러스터를 업데이트하여 변경 사항을 활성화할 TERMINATE수 있습니다(pcluster update-cluster).

클러스터의 용량을 조정할 때 TERMINATE 설정된 는 노드 목록의 뒤에서 노드만 종료하고 동일한 파티션의 다른 모든 노드는 그대로 둡니다.

예를 들어 클러스터 초기 용량이 MinCount = 5 및 인 경우 MaxCount = 10노드는 입니다st-[1-5]; dy-[1-5]. 클러스터의 크기를 MinCount = 3 및 로 조정할 때 MaxCount = 5새 클러스터 용량은 노드 로 구성되며 st-[1-3]; dy-[1-2]업데이트 중에는 해당 노드 가 터치되지 않습니다. 업데이트 중에는 노드만 st-[4-5]; dy-[3-5] 종료됩니다.

다음 변경 사항이 지원되며 컴퓨팅 플릿을 중지하거나 로 QueueUpdateStrategy 설정하지 않아도 됩니다TERMINATE.

  • SlurmQueue 가 추가되었습니다.

  • ComputeResource 가 추가되었습니다.

  • MaxCount 가 증가합니다.

  • MinCount 가 증가하여 적어도 동일한 양으로 MaxCount 증가

    참고: 이 업데이트 정책은 AWS ParallelCluster 버전 3.9.0부터 지원됩니다.

업데이트 정책: 이 목록 값 설정의 경우 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy가 새 값을 추가하도록 설정해야 합니다. 기존 값을 제거할 때는 컴퓨팅 플릿을 중지해야 합니다.

업데이트 중에 이러한 설정의 새 값을 추가할 수 있습니다. 컴퓨팅 플릿을 중지(pcluster update-compute-fleet 사용)하거나 QueueUpdateStrategy가 설정되어야 합니다. 컴퓨팅 플릿이 중지되거나 QueueUpdateStrategy가 설정된 이후에는 클러스터(pcluster update-cluster)를 업데이트하여 변경 사항을 활성화할 수 있습니다.

목록에서 기존 값을 제거하려면 컴퓨팅 플릿을 중지(pcluster update-compute-fleet 사용)해야 합니다.

참고

이 업데이트 정책은 AWS ParallelCluster 버전 3.3.0부터 지원됩니다.

업데이트 정책: 관리형 배치 그룹 삭제를 위해서는 모든 컴퓨팅 노드를 중지해야 합니다. 업데이트를 위해 이 설정을 변경하려면 컴퓨팅 플릿을 중지하거나 QueueUpdateStrategy를 설정해야 합니다.

관리형 배치 그룹을 제거하려면 컴퓨팅 플릿을 중지(pcluster update-compute-fleet 사용)해야 합니다. 컴퓨팅 플릿을 중지하기 전에 클러스터 업데이트를 실행하여 관리형 배치 그룹을 제거하면 잘못된 구성 메시지가 반환되고 업데이트가 진행되지 않습니다. 컴퓨팅 플릿을 중지하면 실행 중인 인스턴스가 없음을 보장할 수 있습니다.

pcluster update-cluster 예제

이러한 설정은 변경할 수 있지만 변경으로 인해 대기열 크기가 줄어들면 컴퓨팅 플릿을 중지하거나(클러스터 사용 update-compute-fleet) 로 설정해야 QueueUpdateStrategy 합니다TERMINATE. 컴퓨팅 플릿이 중지되거나 로 QueueUpdateStrategy 설정된 후 클러스터를 업데이트하여 변경 사항을 활성화할 TERMINATE수 있습니다(pcluster update-cluster).

  • 이 예제는 일부 허용된 변경 사항이 포함된 업데이트를 보여 주며 업데이트가 바로 시작됩니다.

    $ pcluster update-cluster --cluster-name cluster_name --cluster-config ~/.parallelcluster/test_cluster --region us-east-1 { "cluster": { "clusterName": cluster_name, "cloudformationStackStatus": "UPDATE_IN_PROGRESS", "cloudformationStackArn": stack_arn, "region": "us-east-1", "version": "3.7.0", "clusterStatus": "UPDATE_IN_PROGRESS" }, "changeSet": [ { "parameter": "HeadNode.Networking.AdditionalSecurityGroups", "requestedValue": [ "sg-0cd61884c4ad11234" ], "currentValue": [ "sg-0cd61884c4ad16341" ] } ] }
  • 이 예제는 일부 허용된 변경 사항이 포함된 dryrun 업데이트를 보여줍니다. Dryrun은 업데이트를 시작하지 않고 변경 세트를 보고하는 데 유용합니다.

    $ pcluster update-cluster --cluster-name cluster_name --cluster-config ~/.parallelcluster/test_cluster --region us-east-1 --dryrun true { "message": "Request would have succeeded, but DryRun flag is set.", "changeSet": [ { "parameter": "HeadNode.Networking.AdditionalSecurityGroups", "requestedValue": [ "sg-0cd61884c4ad11234" ], "currentValue": [ "sg-0cd61884c4ad16341" ] } ] }
  • 이 예제는 업데이트를 차단하는 일부 변경 사항이 포함된 업데이트를 보여줍니다.

    $ pcluster update-cluster --cluster-name cluster_name --cluster-config ~/.parallelcluster/test_cluster --region us-east-1 { "message": "Update failure", "updateValidationErrors": [ { "parameter": "HeadNode.Ssh.KeyName", "requestedValue": "mykey_2", "message": "Update actions are not currently supported for the 'KeyName' parameter. Restore 'KeyName' value to 'jenkinsjun'. If you need this change, please consider creating a new cluster instead of updating the existing one.", "currentValue": "mykey_1" }, { "parameter": "Scheduling.SlurmQueues[queue1].ComputeResources[queue1-t2micro].InstanceType", "requestedValue": "c4.xlarge", "message": "All compute nodes must be stopped. Stop the compute fleet with the pcluster update-compute-fleet command", "currentValue": "t2.micro" }, { "parameter": "SharedStorage[ebs1].MountDir", "requestedValue": "/my/very/very/long/shared_dir", "message": "Update actions are not currently supported for the 'MountDir' parameter. Restore 'MountDir' value to '/shared'. If you need this change, please consider creating a new cluster instead of updating the existing one.", "currentValue": "/shared" } ], "changeSet": [ { "parameter": "HeadNode.Networking.AdditionalSecurityGroups", "requestedValue": [ "sg-0cd61884c4ad11234" ], "currentValue": [ "sg-0cd61884c4ad16341" ] }, { "parameter": "HeadNode.Ssh.KeyName", "requestedValue": "mykey_2", "currentValue": "mykey_1" }, { "parameter": "Scheduling.SlurmQueues[queue1].ComputeResources[queue1-t2micro].InstanceType", "requestedValue": "c4.xlarge", "currentValue": "t2.micro" }, { "parameter": "SharedStorage[ebs1].MountDir", "requestedValue": "/my/very/very/long/shared_dir", "currentValue": "/shared" } ] }