Migration Hub のインポート - AWS Application Discovery Service

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

Migration Hub のインポート

AWS Migration Hub(Migration Hub) のインポートを使用すると、Application Hub に直接オンプレミス環境の詳細情報を Migration Hub にインポートできます。AWSApplication Discovery Agent デバイスをアプリケーションとしてグループ化し、それらの移行ステータスを追跡することもできます。

インポートリクエストを開始するには

  • 特別な形式のカンマ区切り値 (CSV) インポートテンプレートをダウンロードします。

  • 既存のオンプレミスサーバーデータを入力します。

  • Migration Hub にアップロードするAWS CLIまたはAWSSDK

複数のインポートリクエストを送信できます。各リクエストは順番に処理されます。インポートリクエストのステータスは、コンソールまたはインポート API を使用していつでも確認できます。

インポートリクエストが完了したら、インポートされた各レコードの詳細を表示することができます。使用率データ、タグ、およびアプリケーションマッピングを、Migration Hub コンソール内から直接表示します。インポート中にエラーが発生した場合は、成功したレコードと失敗したレコードの数や、失敗した各レコードのエラー詳細を確認できます。

エラー処理 エラーログと失敗したレコードのファイルを CSV ファイルとして圧縮アーカイブにダウンロードするためのリンクが用意されています。これらのファイルを使用して、エラーを修正してから、インポートリクエストを再送信します。

インポートされたレコード、インポートされたサーバー、および保持できる削除されたレコードの数には、制限が適用されます。詳細については、「AWS Application Discovery Service のクォータ」を参照してください。

サポートされているインポートファイルフィールド

Migration Hub のインポートでは、あらゆるソースからデータをインポートできます。提供されるデータは、CSV ファイルでサポートされている形式である必要があります。また、データには、サポートされている範囲を持つサポートされているフィールドのみが含まれている必要があります。

次の表のインポートフィールド名の横にあるアスタリスクは、必須フィールドであることを示しています。インポートファイルの各レコードには、サーバーまたはアプリケーションを一意に識別するために、必須フィールドが 1 つ以上含まれている必要があります。必須フィールドが 1 つもないレコードはインポートできません。

注記

いずれかの VMware を使用している場合。MoRefId またはVMware.vCenterIdでの、レコードを識別するには、同じレコードに両方のフィールドが必要です。

インポートフィールド名 説明
ExternalId* 各レコードに一意であることをマークすることができるカスタム識別子。例:ExternalIdは、データセンター内のサーバーのインベントリ ID を指します。

Inventory Id 1

Server 2

CMBD Id 3

SMBiosId システム管理 BIOS (SMBIOS) ID。
IPAddress* サーバーの IP アドレスのカンマ区切りリスト (引用符で囲む)。

192.0.0.2

"10.12.31.233, 10.12.32.11"

MACAddress* サーバーの MAC アドレスのカンマ区切りリスト (引用符で囲む)。

00:1B:44:11:3A:B7

"00-15-E9-2B-99-3C, 00-14-22-01-23-45"

HostName* サーバーのホスト名。この値には完全修飾ドメイン名 (FQDN) を使用することをお勧めします。

ip-1-2-3-4

localhost.domain

VMwareMoRefId* マネージド型オブジェクトのリファレンス ID。VMware.Vで指定する必要がありますCenterId。
VMware.vCenterId* 仮想マシンの一意の ID。VMware と共に提供される必要があります。MoRefId。
CPUNumberOfProcessors CPU の数。

4

CPUNumberOfCores 物理コアの合計数。 8
CPUNumberOfLogicalCores サーバー内のすべての CPU で同時に実行できるスレッドの合計数。一部の CPU は、単一の CPU コアにおける複数のスレッドの同時実行をサポートしています。このような場合、この数は物理 (または仮想) コアの数よりも大きくなります。

16

OS.Name オペレーティングシステムの名前。

Linux

Windows.Hat

OS.Version オペレーティングシステムのバージョン。

16.04.3

NT 6.2.8

VMware.VMName 仮想マシンの名前。

Corp1

RAM.TotalSizeInMB サーバーで使用可能な合計 RAM (MB)。

64

128

RAM.UsedSizeInmb.avg サーバーで使用されている RAM の平均容量 (MB)。

64

128

RAM.UsedSizeInmb.max サーバーで使用できる RAM の最大容量 (MB)。

64

128

CPUUsagePctAvg 検出ツールでデータを収集していたときの平均 CPU 使用率。

45

23.9

CPUUsagePct.Max 検出ツールでデータを収集していたときの最大 CPU 使用率。

55.34

24

DiskReadsPerSecondInkb.avg 1 秒あたりのディスク読み取りの平均数 (KB)。

1159

84506

DiskWritesPerSecondInkb.avg 1 秒あたりのディスク書き込みの平均数 (KB)。

199

6197

DiskReadsPerSecondInkb.max 1 秒あたりのディスク読み取りの最大数 (KB)。

37892

869962

DiskWritesPerSecondInkb.max 1 秒あたりのディスク書き込みの最大数 (KB)。

18436

1808

DiskReadsOpsPerSecondAvg 1 秒あたりのディスク読み取り操作の平均回数。

45

28

DiskWritesOpsPerSecondAvg 1 秒あたりのディスク書き込み 操作の平均回数。

8

3

DiskReadsOpsPerSecond.Max 1 秒あたりのディスク読み取りオペレーションの最大数。

1083

176

DiskWritesOpsPerSecond.Max 1 秒あたりのディスク書き込みオペレーションの最大数。

535

71

NetworkReadsPerSecondInkb.avg 1 秒あたりのネットワーク読み取りオペレーションの平均数 (KB)。

45

28

NetworkWritesPerSecondInkb.avg 1 秒あたりのネットワーク書き込みオペレーションの平均数 (KB)。

8

3

NetworkReadsPerSecondInkb.max 1 秒あたりのネットワーク読み取りオペレーションの最大数 (KB)。

1083

176

NetworkWritesPerSecondInkb.max 1 秒あたりのネットワーク書き込みオペレーションの最大数 (KB)。

535

71

アプリケーション このサーバーを含むアプリケーションのカンマ区切りリスト (引用符で囲む)。この値には、既存のアプリケーションや、インポート時に作成された新規アプリケーションを含めることができます。

Application1

"Application2, Application3"

タグ

name:value 形式のタグのカンマ区切りリスト。

重要

タグに機密情報 (個人データなど) を保存しないでください。

"zone:1, critical:yes"

"zone:3, critical:no, zone:1"

インポートテンプレートで定義されているすべてのフィールドにデータが入力されていなくても、各レコードに 1 つ以上の必須フィールドが含まれていれば、データをインポートすることができます。重複は、外部または内部の一致キーを使用して、複数のインポートリクエスト間で管理されます。独自の一致キー External ID を入力する場合は、このフィールドでレコードを一意に識別してインポートします。一致キーが指定されていない場合、インポートテンプレートの一部の列から派生した内部生成の一致キーがインポートに使用されます。この一致の詳細については、「検出されたサーバーとアプリケーションのマッチングロジック」を参照してください。

注記

Migration Hub のインポートは、インポートテンプレートで定義されているもの以外のフィールドをサポートしません。カスタムフィールドは無視され、インポートもされません。

インポートのアクセス許可の設定

データをインポートする前に、IAM ユーザーにアップロードに必要な Amazon S3 許可が IAM ユーザーにあることを確認します。s3:PutObject) のインポートファイルを Amazon S3 にインポートして、オブジェクト (s3:GetObject). また、プログラムによるアクセスを確立する必要があります (AWS CLI) または、IAM ポリシーを作成し、でインポートを行う IAM ユーザーにそのポリシーをアタッチすることで、AWSアカウント.

Console Permissions

でインポートリクエストを行う IAM ユーザーの許可ポリシーを編集するには、以下の手順を実行しますAWSコンソールを使用してアカウントを作成します。

ユーザーにアタッチされている管理ポリシーを編集する
  1. AWS Management Consoleにサインインして、IAM コンソールを開きます https://console.aws.amazon.com/iam/

  2. ナビゲーションペインで [Users] (ユーザー) を選択します。

  3. アクセス許可ポリシーを変更する対象のユーザーの名前を選択します。

  4. [アクセス許可] タブを選択後、[アクセス許可の追加] を選択します。

  5. [Attach existing policies directly (既存のポリシーを直接アタッチ)]、[ポリシーの作成] の順に選択します。

    1. 表示された [ポリシーの作成] ページで [JSON] を選択し、次のポリシーに貼り付けます。バケットの名前を、IAM ユーザーがインポートファイルをアップロードする実際のバケットの名前に置き換えることを忘れないでください。

      { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "s3:GetBucketLocation", "s3:ListAllMyBuckets" ], "Resource": "*" }, { "Effect": "Allow", "Action": ["s3:ListBucket"], "Resource": ["arn:aws:s3:::importBucket"] }, { "Effect": "Allow", "Action": [ "s3:PutObject", "s3:GetObject", "s3:DeleteObject" ], "Resource": ["arn:aws:s3:::importBucket/*"] } ] }
    2. [Review policy] (ポリシーの確認) を選択します。

    3. ポリシーに新しい [名前] と説明 (オプション) を入力してから、ポリシーの概要を確認します。

    4. [Create policy] (ポリシーを作成) を選択します。

  6. に戻りますアクセス許可の付与でインポートリクエストを行うユーザーの IAM コンソールページAWSアカウント.

  7. ポリシーのテーブルを更新し、先ほど作成したポリシーの名前を検索します。

  8. [Next: (次へ:)] を選択します 確認.

  9. [Add permissions] (許可の追加) を選択します。

IAM ユーザーにポリシーを追加したところで、インポートプロセスを開始する準備が整いました。

AWS CLI Permissions

以下の手順を使用して、IAM ユーザーに、を使用してデータのインポートリクエストを行うアクセス権限を付与するために必要な管理ポリシーを作成します。AWS CLI。

管理ポリシーを作成してアタッチするには
  1. aws iam create-policy AWS CLI コマンドを使用して、以下の許可を持つ IAM ポリシーを作成します。バケットの名前を、IAM ユーザーがインポートファイルをアップロードする実際のバケットの名前に置き換えることを忘れないでください。

    { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": ["s3:ListBucket"], "Resource": ["arn:aws:s3:::importBucket"] }, { "Effect": "Allow", "Action": [ "s3:PutObject", "s3:GetObject", "s3:DeleteObject" ], "Resource": ["arn:aws:s3:::importBucket/*"] } ] }

    このコマンドの使用に関する詳細については、AWS CLI コマンドリファレンスの「create-policy」を参照してください。

  2. を使用するaws iam create-policy AWS CLIのコマンドを実行して、次のアクセス許可が付与された追加の IAM ポリシーを作成します。

    { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "discovery:ListConfigurations", "discovery:CreateApplication", "discovery:UpdateApplication", "discovery:AssociateConfigurationItemsToApplication", "discovery:DisassociateConfigurationItemsFromApplication", "discovery:GetDiscoverySummary", "discovery:StartImportTask", "discovery:DescribeImportTasks", "discovery:BatchDeleteImportData" ], "Resource": "*" } ] }
  3. を使用するaws iam attach-user-policy AWS CLIのコマンドを実行して、前の 2 つのステップで作成したポリシーを IAM ユーザーにアタッチしますAWSアカウントを使用してAWS CLI。このコマンドの使用の詳細については、「」を参照してください。attach-user-policyAWS CLIコマンドリファレンス

IAM ユーザーにポリシーを追加したところで、インポートプロセスを開始できるようになりました。

IAM ユーザーが指定された Amazon S3 バケットにオブジェクトをアップロードするときは、ユーザーがそのオブジェクトを読み取ることができるように、オブジェクトセットに対するデフォルトのアクセス許可の設定は保持する必要があります。

Amazon S3 へのインポートファイルのアップロード

次に、CSV 形式のインポートファイルをインポートできるように、それを Amazon S3 にアップロードする必要があります。開始する前に、インポートファイルを格納する Amazon S3 バケットを事前に作成および/または選択しておく必要があります。

Console S3 Upload
Amazon S3 にインポートファイルをアップロードする
  1. AWS Management Console にサインインし、Amazon S3 コンソール (https://console.aws.amazon.com/s3/) を開きます。

  2. [Bucket name (バケット名)] リストで、オブジェクトのアップロード先のバケットの名前を選択します。

  3. [Upload] (アップロード) を選択します。

  4. [Upload (アップロード)] ダイアログボックスで、[Add files (ファイルの追加)] を選択してアップロードするファイルを選択します。

  5. アップロードするファイルを選択し、続いて [Open (オープン)] を選択します。

  6. [Upload] (アップロード) を選択します。

  7. ファイルがアップロードされたら、バケットのダッシュボードからデータファイルオブジェクトの名前を選択します。

  8. オブジェクトの詳細ページの [概要] タブから、[オブジェクト URL] をコピーします。この情報は、インポートリクエストを作成するときに必要になります。

  9. に移動しますインポートで説明されているように、Migration Hub コンソールのページデータのインポート。次に、オブジェクトの URL をAmazon S3 オブジェクトフィールド。

AWS CLI S3 Upload
Amazon S3 にインポートファイルをアップロードする
  1. ターミナルウィンドウを開き、インポートファイルが保存されているディレクトリに移動します。

  2. 次のコマンドを入力します。

    aws s3 cp ImportFile.csv s3://BucketName/ImportFile.csv
  3. これにより、次の結果が返ります。

    upload: .\ImportFile.csv to s3://BucketName/ImportFile.csv
  4. 返された完全な Amazon S3 オブジェクトパスをコピーします。この情報は、インポートリクエストを作成するときに必要です。

データのインポート

Migration Hub コンソールからインポートテンプレートをダウンロードし、それに既存のオンプレミスサーバーのデータを入力したら、Migration Hub へのデータのインポートを開始する準備が整います。次の手順では、2 つの方法について説明します。AWS CLI。

Console Import

Migration Hub コンソールの [Tools] (ツール) ページでデータのインポートを開始します。

データのインポートを開始する
  1. ナビゲーションペインの [Discover (検出)] で [Tools (ツール)] を選択します。

  2. インポートテンプレートへの入力が完了していない場合は、[Import] (インポート) ボックスで [import template] (インポートテンプレート) を選択することによってテンプレートをダウンロードできます。ダウンロードしたテンプレートを開き、既存のオンプレミスサーバーデータを入力します。インポートテンプレートは、https://s3.us-west-2.amazonaws.com/templates-7cffcf56-bd96-4b1c-b45b-a5b42f282e46/import_template.csv にある Amazon S3 バケットからもダウンロードできます。

  3. [ (マテリアルエディタ)] を開くにはインポート[] ページでインポートインポートボックスに移動するとそのように表示されます。

  4. []インポート名で、インポートの名前を指定します。

  5. に入力しますAmazon S3 オブジェクトフィールド。このステップを実行するには、インポートデータファイルを Amazon S3 にアップロードする必要があります。詳細については、「Amazon S3 へのインポートファイルのアップロード」を参照してください。

  6. 右下エリアにある [インポート] を選択します。[インポート] ページが開きます。テーブルには、インポートとそのステータスが表示されます。

前の手順に従って、データのインポートを開始したら、各インポートリクエストの詳細 (例: 進行状況のステータス、完了時間、レコードの成功/失敗数 (ダウンロード可能)) が [インポート] ページに表示されます。この画面から、[Discover] (検出) の [Servers] (サーバー) ページに移動して、インポートされた実際のデータを確認することもできます。

[サーバー] ページでは、検出されたすべてのサーバー (デバイス) とインポート名を確認できます。から移動するとインポート(インポート履歴) ページに表示されているインポートの名前を選択して[Name] (名前)の列に自動的に移動しますサーバー選択したインポートのデータセットに基づいてフィルタが適用されるページ。すると、その特定のインポートに属するデータのみが表示されます。

アーカイブは、.zip 形式で提供され、errors-filefailed-entries-file の 2 つのファイルが含まれます。エラーファイルには、失敗した各行に関連付けられたエラーメッセージのリストと、インポートに失敗したデータファイルの関連付けられた列の名前が含まれます。このファイルを使用して、問題の発生原因をすばやく特定することができます。失敗したエントリファイルには、失敗した各行と提供されたすべての列が含まれます。このファイルのエラーファイルで変更を呼び出し、修正した情報を使用してファイルのインポートを再試行することができます。

AWS CLI Import

AWS CLI からデータのインポートプロセスを開始するには、最初に AWS CLI を環境にインストールする必要があります。詳細については、AWS Command Line Interface ユーザーガイドAWS コマンドラインインターフェイスのインストールを参照してください。

注記

インポートテンプレートへの入力が完了していない場合は、https://s3.us-west-2.amazonaws.com/templates-7cffcf56-bd96-4b1c-b45b-a5b42f282e46/import_template.csv にある Amazon S3 バケットからインポートテンプレートをダウンロードできます。

データのインポートを開始する
  1. ターミナルウィンドウを開いて、次のコマンドを入力します。

    aws discovery start-import-task --import-url s3://BucketName/ImportFile.csv --name ImportName
  2. これにより、インポートタスクが作成され、次のステータス情報が返ります。

    { "task": { "status": "IMPORT_IN_PROGRESS", "applicationImportSuccess": 0, "serverImportFailure": 0, "serverImportSuccess": 0, "name": "ImportName", "importRequestTime": 1547682819.801, "applicationImportFailure": 0, "clientRequestToken": "EXAMPLE1-abcd-1234-abcd-EXAMPLE1234", "importUrl": "s3://BucketName/ImportFile.csv", "importTaskId": "import-task-EXAMPLE1229949eabfEXAMPLE03862c0" } }

Migration Hub のインポートリクエストの追跡

Migration Hub のインポートリクエストのステータスは、コンソールを使用して追跡できます。AWS CLI、またはAWSSDK

Console Tracking

Migration Hub コンソールの [Imports] (インポート) ダッシュボードからは、以下の要素を確認できます。

  • 名前 – インポートリクエストの名前。

  • インポート ID – インポートリクエストの固有 ID。

  • インポート時間 – インポートリクエストが作成された日時。

  • インポートステータス – インポートリクエストのステータス。これは、以下の値のいずれかになります。

    • インポート中 – このデータファイルは現在インポート中です。

    • インポート済み – データファイル全体が正常にインポートされました。

    • インポート時にエラーが発生 – データファイル内の 1 つ、または複数のレコードのインポートが失敗しました。失敗したレコードを解決するには、インポートタスクの [Download failed records (失敗したレコードのダウンロード)] を選択し、失敗したエントリの csv ファイルのエラーを解消してから、再度インポートを行います。

    • インポート失敗 – データファイル内のどのレコードもインポートされませんでした。失敗したレコードを解決するには、インポートタスクの [Download failed records (失敗したレコードのダウンロード)] を選択し、失敗したエントリの csv ファイルのエラーを解消してから、再度インポートを行います。

  • インポートされたレコード – 特定のデータファイル内の正常にインポートされたレコードの数です。

  • 失敗したレコード – 特定のデータファイル内のインポートされなかったレコードの数です。

CLI Tracking

インポートタスクのステータスは、AWS CLI の aws discovery describe-import-tasks コマンドを使用して追跡できます。

  1. ターミナルウィンドウを開いて、次のコマンドを入力します。

    aws discovery describe-import-tasks
  2. これにより、すべてのインポートタスクのリストが JSON 形式で返り、ステータスやその他の関連情報が含まれます。必要に応じて、インポートタスクのサブセットが返るように結果をフィルタリングすることができます。

インポートタスクを追跡すると、返った serverImportFailure 値がゼロより大きいことがわかります。この場合、インポートファイルには、インポートできなかったエントリが 1 つ以上含まれています。この問題を解消するには、失敗したレコードのアーカイブをダウンロードして、中のファイルを確認し、変更した failed-entries.csv ファイルを使用してインポートリクエストを行います。

インポートタスクを作成したら、データ移行の管理と追跡に役立つ他の操作を実行できます。たとえば、特定のリクエストに対して失敗したレコードのアーカイブをダウンロードできます。失敗したレコードのアーカイブを使用して、インポートの問題を解消する方法については、「失敗したインポートレコードのトラブルシューティング」を参照してください。