Migration Hub - AWS Application Discovery 서비스

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

Migration Hub

AWS Migration Hub(Migration Hub) 가져오기를 사용하면 Application Discovery Agent Connector (에이전트 없는 수집기) 를 사용하지 않고 Migration Hub 로 직접 가져올 수 있습니다.AWSApplication Discovery (Discovery Agent) - 가져온 데이터에서 직접 마이그레이션 평가 및 계획을 수행할 수 있습니다. 디바이스를 애플리케이션으로 그룹화하고 해당 마이그레이션 상태를 추적할 수도 있습니다.

가져오기 요청을 시작하려면

  • 특수 형식의 CSV(쉼표로 구분된 값) 가져오기 템플릿을 다운로드합니다.

  • 기존의 온프레미스 서버 데이터로 채웁니다.

  • Migration Hub 콘솔을 사용하여 마이그레이션 허브에 업로드합니다.AWS CLI또는 다음 중 하나를AWSSDK.

여러 가져오기 요청을 제출할 수 있습니다. 각 요청은 순차적으로 처리됩니다. 콘솔이나 가져오기 API를 통해 언제든지 가져오기 요청 상태를 확인할 수 있습니다.

가져오기 요청이 완료되면 가져온 개별 레코드의 세부 정보를 볼 수 있습니다. Migration Hub 콘솔에서 직접 사용률 데이터, 태그, 애플리케이션 매핑을 볼 수 있습니다. 가져오는 동안 오류가 발생할 경우 성공한 레코드와 실패한 레코드 수 및 실패한 각 레코드에 대한 오류 세부 정보를 검토할 수 있습니다.

오류: 오류 로그와 실패한 레코드 파일을 압축된 아카이브의 CSV 파일로 다운로드할 수 있는 링크가 제공됩니다. 이러한 파일을 사용하여 오류 수정 후 가져오기 요청을 다시 제출합니다.

가져온 레코드, 가져온 서버, 삭제한 레코드를 보관할 수 있는 수는 제한됩니다. 자세한 정보는 AWS Application Discovery Service 할당량을 참조하세요.

지원되는 가져오기 파일 필드

Migration Hub 가져오기를 사용하면 모든 소스에서 데이터를 가져올 수 있습니다. 제공된 데이터는 CSV 파일에 대해 지원되는 형식이어야 하며, 데이터에는 해당 필드에 대해 지원되는 범위가 있는 지원되는 필드만 포함되어야 합니다.

다음 표에서 별표가 표시된 가져오기 필드는 필수 필드입니다. 가져오기 파일의 각 레코드는 서버 또는 애플리케이션을 고유하게 식별하기 위해 값을 채운 이러한 필수 필드를 한 개 이상 가져야 합니다. 그렇지 않을 경우 필수 필드가 없는 레코드를 가져올 때 실패합니다.

참고

VMware 중 하나를 사용하는 경우MoRefId 또는 VMware.vCenterId, 레코드를 식별하려면 동일한 레코드에 두 필드가 있어야 합니다.

가져오기 필드 이름 설명
ExternalId* 각 레코드를 고유하게 표시할 수 있는 사용자 정의 식별자입니다. 예,ExternalId은 데이터 센터에 있는 서버의 인벤토리 ID일 수 있습니다.

Inventory Id 1

Server 2

CMBD Id 3

SMBiosId 시스템 관리 BIOS(SMBIOS) ID.
IPAddress* 따옴표로 묶은 서버 IP 주소의 쉼표 구분 목록.

192.0.0.2

"10.12.31.233, 10.12.32.11"

MACAddress* 따옴표로 묶은 서버 MAC 주소의 쉼표 구분 목록.

00:1B:44:11:3A:B7

"00-15-E9-2B-99-3C, 00-14-22-01-23-45"

HostName* 서버의 호스트 이름입니다. 이 값에 정규화된 도메인 이름(FQDN)을 사용할 것을 권장합니다.

ip-1-2-3-4

localhost.domain

VMware.MoRefId* 관리되는 객체 참조 ID. VMware.V를 제공해야 합니다.CenterId.
VMware.vCenterId* 가상 머신 고유 식별자. VMware를 제공해야 합니다.MoRefId.
CPU.NumberOfProcessors CPU 수입니다.

4

CPU.NumberOfCores 물리적 코어 총수 8
CPU.NumberOfLogicalCores 서버의 모든 CPU에서 동시에 실행할 수 있는 총 스레드 수입니다. 일부 CPU는 단일 CPU 코어에서 동시에 실행할 수 있는 여러 스레드를 지원합니다. 이 경우 이 숫자는 물리적(또는 가상) 코어의 수보다 더 많습니다.

16

OS.Name 운영 체제 이름.

Linux

Windows.Hat

OS.Version 운영 체제 버전.

16.04.3

NT 6.2.8

VMware.VMName 가상 머신의 이름.

Corp1

RAM.TotalSizeInMB 서버에서 사용 가능한 총 RAM(MB)

64

128

RAM.UsedSizeInMB.avg 서버에서 사용된 평균 RAM 양(MB)

64

128

RAM.UsedSizeInMB.max 서버에서 사용 가능한 최대 RAM 양(MB)

64

128

CPU.UsagePct.Ag 검색 도구가 데이터를 수집할 때의 평균 CPU 사용률.

45

23.9

CPU.UsagePct.Max 검색 도구가 데이터를 수집할 때의 최대 CPU 사용률.

55.34

24

DiskReadsPerSecondInKB.avg 초당 평균 디스크 읽기 수(KB).

1159

84506

DiskWritesPerSecondInKB.avg 초당 평균 디스크 쓰기 수(KB).

199

6197

DiskReadsPerSecondInKB.max 초당 최대 디스크 읽기 수(KB).

37892

869962

DiskWritesPerSecondInKB.max 초당 최대 디스크 쓰기 수(KB).

18436

1808

DiskReadsOpsPerSecond.Ag 초당 평균 디스크 I/O 연산 수.

45

28

DiskWritesOpsPerSecond.Ag 초당 평균 디스크 쓰기 연산 수

8

3

DiskReadsOpsPerSecond.Max 초당 최대 디스크 읽기 작업 수.

1083

176

DiskWritesOpsPerSecond.Max 초당 최대 디스크 쓰기 작업 수.

535

71

NetworkReadsPerSecondInKB.avg 초당 평균 네트워크 읽기 작업 수(KB)

45

28

NetworkWritesPerSecondInKB.avg 초당 평균 네트워크 쓰기 작업 수(KB)

8

3

NetworkReadsPerSecondInKB.max 초당 최대 네트워크 읽기 작업 수(KB)

1083

176

NetworkWritesPerSecondInKB.max 초당 최대 네트워크 쓰기 작업 수(KB)

535

71

애플리케이션 이 서버를 포함하는 애플리케이션의 쉼표 구분 목록(따옴표로 묶음). 이 값에는 기존 애플리케이션 및/또는 가져올 때 생성되는 새 애플리케이션이 포함될 수 있습니다.

Application1

"Application2, Application3"

태그

이름:값 형식의 태그를 쉼표로 구분한 목록.

중요

태그에 민감한 정보(예: 개인 데이터)를 저장하지 마십시오.

"zone:1, critical:yes"

"zone:3, critical:no, zone:1"

각 레코드에 적어도 한 개의 필수 필드가 있으면, 가져오기 템플릿에 정의된 일부 필드에 데이터가 없어도 데이터를 가져올 수 있습니다. 중복은 외부 또는 내부 일치 키를 사용하여 여러 가져오기 요청에서 관리됩니다. 자체 일치 키 External ID를 입력할 경우 이 필드는 레코드를 고유하게 식별하고 가져오는 데 사용됩니다. 일치 키를 지정하지 않으면 가져오기에서 가져오기 템플릿에 있는 일부 열에서 파생된 내부 생성 일치 키를 사용합니다. 이 일치에 대한 자세한 내용은 검색된 서버 및 애플리케이션을 위한 매칭 로직 단원을 참조하십시오.

참고

Migration Hub 가져오기는 가져오기 템플릿에 정의된 필드 외의 다른 필드를 지원하지 않습니다. 제공한 사용자 지정 필드는 무시되며 가져오지 않습니다.

가져오기 권한 설정

데이터를 가져오려면 IAM 사용자에게 업로드하는 데 필요한 Amazon S3 권한 () 이 있어야 합니다.s3:PutObject) 파일을 Amazon S3로 가져오고 객체를 읽으려면 (s3:GetObject). 또한 프로그래밍 방식 액세스를 설정해야 합니다.AWS CLI) 또는 IAM 정책을 생성하고 가져오기를 수행하는 IAM 사용자에게 연결하여 콘솔에 액세스합니다.AWS계정.

Console Permissions

다음 절차를 통해 가져오기 요청을 수행할 IAM 사용자에 대한 권한 정책을 편집합니다.AWS콘솔을 사용하여 계정을 생성합니다.

사용자의 연결된 관리형 정책을 편집하려면
  1. AWS Management Console에 로그인하여 https://console.aws.amazon.com/iam/에서 IAM 콘솔을 엽니다.

  2. 탐색 창에서 사용자를 선택합니다.

  3. 권한 정책을 변경하려는 사용자의 이름을 선택합니다.

  4. 권한 탭을 선택한 후 권한 추가를 선택합니다.

  5. 기존 정책 직접 연결을 선택한 후 정책 생성을 선택합니다.

    1. 정책 생성 페이지에서 JSON을 선택하고 다음 정책에 붙여 넣습니다. 버킷 이름을 IAM 사용자가 가져오기 파일을 업로드할 버킷의 실제 이름으로 바꿉니다.

      { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "s3:GetBucketLocation", "s3:ListAllMyBuckets" ], "Resource": "*" }, { "Effect": "Allow", "Action": ["s3:ListBucket"], "Resource": ["arn:aws:s3:::importBucket"] }, { "Effect": "Allow", "Action": [ "s3:PutObject", "s3:GetObject", "s3:DeleteObject" ], "Resource": ["arn:aws:s3:::importBucket/*"] } ] }
    2. 정책 검토(Review policy)를 선택합니다.

    3. 정책 요약을 검토하기 전에 이름에 새 정책 이름을 지정하고, 필요한 경우 설명을 입력합니다.

    4. Create policy(정책 생성)를 선택합니다.

  6. 로 돌아갑니다권한가져오기 요청을 수행할 사용자의 IAM 콘솔 페이지입니다.AWS계정.

  7. 정책 테이블을 새로 고치고 방금 생성한 정책의 이름을 검색합니다.

  8. [다음: 권한(Next: Review)]를 선택합니다.

  9. 권한 추가(Add permissions)를 선택합니다.

IAM 사용자에게 정책을 추가했으며 이제 가져오기 프로세스를 시작할 수 있습니다.

AWS CLI Permissions

다음 절차에 따라 IAM 사용자에게 다음을 사용하여 데이터 가져오기를 요청할 수 있는 권한을 부여하는 데 필요한 관리형 정책을 생성합니다.AWS CLI.

관리형 정책을 생성하여 연결하려면
  1. 사용aws iam create-policy AWS CLI명령을 사용하여 다음 권한을 갖는 IAM 정책을 생성합니다. 버킷 이름을 IAM 사용자가 가져오기 파일을 업로드할 버킷의 실제 이름으로 바꿉니다.

    { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": ["s3:ListBucket"], "Resource": ["arn:aws:s3:::importBucket"] }, { "Effect": "Allow", "Action": [ "s3:PutObject", "s3:GetObject", "s3:DeleteObject" ], "Resource": ["arn:aws:s3:::importBucket/*"] } ] }

    이 명령의 사용에 대한 자세한 내용은 단원을 참조하십시오.create-policyAWS CLI명령 참조.

  2. 사용aws iam create-policy AWS CLI명령을 사용하여 다음 권한을 갖는 IAM 정책을 생성합니다.

    { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "discovery:ListConfigurations", "discovery:CreateApplication", "discovery:UpdateApplication", "discovery:AssociateConfigurationItemsToApplication", "discovery:DisassociateConfigurationItemsFromApplication", "discovery:GetDiscoverySummary", "discovery:StartImportTask", "discovery:DescribeImportTasks", "discovery:BatchDeleteImportData" ], "Resource": "*" } ] }
  3. 사용aws iam attach-user-policy AWS CLI이전 두 단계에서 생성한 정책을 명령을 사용하여 가져오기 요청을 수행할 IAM 사용자에게 연결합니다.AWS를 사용하는 계정AWS CLI. 이 명령의 사용에 대한 자세한 내용은 단원을 참조하십시오.attach-user-policyAWS CLI명령 참조.

IAM 사용자에게 정책을 추가했으며 이제 가져오기 프로세스를 시작할 수 있습니다.

지정된 Amazon S3 버킷에 객체를 업로드할 경우, 객체에 대해 설정된 기본 권한을 그대로 유지해야 사용자가 객체를 읽을 수 있습니다.

Amazon S3로 가져오기 파일 업로드

그런 다음 CSV 형식의 가져오기 파일을 Amazon S3로 업로드해야 가져올 수 있습니다. 시작하기 전에 생성하거나 선택한 가져오기 파일을 보관할 Amazon S3 버킷이 있어야 합니다.

Console S3 Upload
Amazon S3로 가져오기 파일을 업로드하려면
  1. AWS Management Console에 로그인한 후 https://console.aws.amazon.com/s3/에서 Amazon S3 콘솔을 엽니다.

  2. 버킷 이름 목록에서 객체를 업로드하려는 버킷 이름을 선택합니다.

  3. 업로드를 선택합니다.

  4. 업로드 대화 상자에서 파일 추가를 선택한 후 업로드할 파일을 선택합니다.

  5. 업로드할 파일을 선택한 후 열기를 선택합니다.

  6. 업로드를 선택합니다.

  7. 파일을 업로드한 후 버킷 대시보드에서 데이터 파일 객체 이름을 선택합니다.

  8. 객체 세부 정보 페이지의 개요 탭에서 객체 URL을 복사합니다. 이 URL은 가져오기 요청을 생성할 때 필요합니다.

  9. 위치로 이동합니다가져오기에 설명된 대로 Migration Hub 콘솔의 페이지데이터 가져오기. 그런 다음 객체 URL을Amazon S3 객체 URL필드.

AWS CLI S3 Upload
Amazon S3로 가져오기 파일을 업로드하려면
  1. 터미널 창을 열고 가져오기 파일이 저장된 디렉터리로 이동합니다.

  2. 다음 명령을 입력합니다.

    aws s3 cp ImportFile.csv s3://BucketName/ImportFile.csv
  3. 그러면 다음 결과가 반환됩니다.

    upload: .\ImportFile.csv to s3://BucketName/ImportFile.csv
  4. 반환된 전체 Amazon S3 객체 경로를 복사합니다. 이 URL은 가져오기 요청을 생성할 때 필요합니다.

데이터 가져오기

Migration Hub 콘솔에서 가져오기 템플릿을 다운로드하여 기존 온프레미스 서버 데이터로 채우면 Migration Hub 로 데이터 가져오기를 시작할 수 있습니다. 다음 지침에서는 콘솔을 사용하거나, 를 통한 API 호출을 사용하는 방법이 여기에 해당됩니다.AWS CLI.

Console Import

에서 데이터 가져오기 시작도구Migration Hub 콘솔의 페이지입니다.

데이터 가져오기를 시작하려면
  1. 탐색 창의 검색에서 도구를 선택합니다.

  2. 가져오기 템플릿을 아직 작성하지 않은 경우 가져오기 상자에서 템플릿 가져오기를 선택하여 템플릿을 다운로드할 수 있습니다. 다운로드한 템플릿을 열고 기존 온프레미스 서버 데이터로 채웁니다. 또한 Amazon S3 버킷에서 가져오기 템플릿을 다운로드할 수도 있습니다.https://s3.us-west-2.amazonaws.com/templates-7cffcf56-bd96-4b1c-b45b-a5b42f282e46/import_template.csv

  3. 를 열려면가져오기페이지가져오기가져오기상자.

  4. 언더을 가져옵니다에서 가져오기 이름을 지정합니다.

  5. 을 입력합니다Amazon S3 객체 URL필드. 이 단계를 수행하려면 가져오기 데이터 파일을 Amazon S3로 업로드해야 합니다. 자세한 정보는 Amazon S3로 가져오기 파일 업로드을 참조하세요.

  6. 하단 오른쪽 부분에서 가져오기를 선택합니다. 그러면 가져오기 페이지가 열립니다. 이 페이지의 표에서 가져오기와 해당 상태를 볼 수 있습니다.

데이터 가져오기를 시작하기 위한 선행 절차를 수행하면, 가져오기 페이지에 진행 상태, 완료 시간, 성공 또는 실패한 레코드 수를 비롯하여 각 가져오기 요청의 세부 정보가 표시되고 해당 레코드를 다운로드할 수 있는 기능이 제공됩니다. 이 화면에서 서버 페이지의 검색으로 이동하여 실제 가져온 데이터를 볼 수도 있습니다.

서버 페이지에서 검색된 모든 서버(디바이스) 목록과 가져오기 이름을 볼 수 있습니다. 다음 위치에서 탐색할 때가져오기(가져오기 기록) 페이지에 나열된 가져오기 이름을 선택하여이름열에 이동하게 됩니다.서버선택한 가져오기의 데이터 세트를 기반으로 필터가 적용되는 페이지입니다. 그러면 해당 가져오기에 속한 데이터만 볼 수 있습니다.

아카이브는 .zip 형식이며, errors-file 파일과 failed-entries-file 파일이 들어 있습니다. 오류 파일에는 각 실패한 각 행과 연결된 오류 메시지 및 가져오기에 실패한 데이터 파일의 관련 열 이름이 들어 있습니다. 이 파일을 사용하여 문제가 발생한 위치를 빠르게 식별할 수 있습니다. 실패한 항목 파일에는 각 행과 실패한 모든 열이 포함되어 있습니다. 이 파일의 오류 파일에서 호출된 내용을 변경하고 수정된 정보로 파일을 다시 가져오십시오.

AWS CLI Import

AWS CLI에서 데이터 가져오기 프로세스를 시작하려면 먼저 환경에 AWS CLI를 설치해야 합니다. 자세한 내용은 단원을 참조하십시오.다음 설치AWSCommand Line InterfaceAWS Command Line Interface사용 설명서.

참고

가져오기 템플릿 파일을 아직 작성하지 않은 경우 Amazon S3 버킷에서 가져오기 템플릿을 다운로드할 수 있습니다.https://s3.us-west-2.amazonaws.com/templates-7cffcf56-bd96-4b1c-b45b-a5b42f282e46/import_template.csv

데이터 가져오기를 시작하려면
  1. 터미널 창을 열고 다음 명령을 입력합니다.

    aws discovery start-import-task --import-url s3://BucketName/ImportFile.csv --name ImportName
  2. 그러면 가져오기 작업이 생성되고 다음 상태 정보가 반환됩니다.

    { "task": { "status": "IMPORT_IN_PROGRESS", "applicationImportSuccess": 0, "serverImportFailure": 0, "serverImportSuccess": 0, "name": "ImportName", "importRequestTime": 1547682819.801, "applicationImportFailure": 0, "clientRequestToken": "EXAMPLE1-abcd-1234-abcd-EXAMPLE1234", "importUrl": "s3://BucketName/ImportFile.csv", "importTaskId": "import-task-EXAMPLE1229949eabfEXAMPLE03862c0" } }

Migration Hub 가져오기 요청 추적

콘솔을 사용하여 Migration Hub 가져오기 요청의 상태를 추적할 수 있습니다.AWS CLI또는 다음 중 하나를 수행합니다.AWSSDK.

Console Tracking

에서가져오기Migration Hub 콘솔의 대시보드에서 다음 요소를 찾을 수 있습니다.

  • 이름— 가져오기 요청의 이름입니다.

  • 가져오기 ID— 가져오기 요청의 고유 ID입니다.

  • 을 가져옵니다— 가져오기 요청이 생성된 날짜와 시간입니다.

  • 을 가져옵니다— 가져오기 요청의 상태입니다. 다음 값 중 하나일 수 있습니다.

    • 가져오는 중— 이 데이터 파일을 현재 가져오는 중입니다.

    • 을 가져옵니다— 전체 데이터 파일을 성공적으로 가져왔습니다.

    • 오류와 함께 가져옴— 데이터 파일의 레코드 중 한 개 이상을 가져오는 데 실패했습니다. 실패한 레코드를 해결하려면 가져오기 작업에 대해 레코드를 다운로드하지 못함을 선택하고 실패한 항목 csv 파일의 오류를 해결한 후 다시 가져오기를 수행합니다.

    • 을 가져옵니다— 가져온 데이터 파일의 레코드를 가져오지 못했습니다. 실패한 레코드를 해결하려면 가져오기 작업에 대해 레코드를 다운로드하지 못함을 선택하고 실패한 항목 csv 파일의 오류를 해결한 후 다시 가져오기를 수행합니다.

  • 가져온 레코드— 특정 데이터 파일에서 성공적으로 가져온 레코드의 수입니다.

  • 실패한 레코드— 특정 데이터 파일에서 가져오지 못한 레코드의 수입니다.

CLI Tracking

aws discovery describe-import-tasks AWS CLI 명령을 사용하여 가져오기 작업의 상태를 추적할 수 있습니다.

  1. 터미널 창을 열고 다음 명령을 입력합니다.

    aws discovery describe-import-tasks
  2. 이렇게 하면 모든 가져오기 작업의 목록이 JSON 형식으로 반환되며, 상태 및 기타 관련 정보가 함께 제공됩니다. 결과를 필터링하여 가져오기 작업의 하위 집합을 반환할 수도 있습니다(선택 사항).

가져오기 작업을 추적할 경우 반환된 serverImportFailure 값이 0보다 큰 것을 볼 수 있습니다. 이 경우 가져오기 파일에 가져오지 못한 항목이 한 개 이상 있는 것입니다. 이 문제는 실패한 레코드 아카이브를 다운로드하고, 내부의 파일을 검토하며, 수정된 failure-entries.csv 파일로 다른 가져오기 요청을 수행하여 해결할 수 있습니다.

가져오기 작업을 생성한 후 추가 작업을 수행하여 데이터 마이그레이션을 관리하고 추적할 수 있습니다. 예를 들어 특정 요청에 대해 실패한 레코드의 아카이브를 다운로드할 수 있습니다. 실패한 레코드 아카이브를 사용하여 가져오기 문제를 해결하는 방법은 레코드 가져오기 실패 문제 해결 단원을 참조하십시오.