翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
トラブルシューティング AWS Application Discovery Service
このセクションでは、 の一般的な問題を修正する方法に関する情報を確認できます。 AWS Application Discovery Service.
トピック
データ探索によるデータ収集の停止
データ探索を停止するには、Migration Hub コンソールの「検出 > データコレクター > エージェント」タブでトグルスイッチをオフにするか、 StopContinuousExport
を呼び出しますAPI。データ収集の停止には最大 30 分かかることがあります。この段階では、コンソールのトグルスイッチとDescribeContinuousExport
API呼び出しにより、データ探索の状態が「進行中停止」と表示されます。
注記
コンソールページを更新した後、トグルがオフにならず、エラーメッセージがスローされるか、 が「Stop_Failed」状態DescribeContinuousExport
APIを返す場合は、トグルスイッチをオフに切り替えるか、 StopContinuousExport
を呼び出して再試行できますAPI。「データ探索」にエラーが表示され、正常に停止しない場合は、 にお問い合わせください。 AWS サポート。
または、次の手順で説明されているようにデータ収集を手動で停止できます。
オプション 1: エージェントデータ収集の停止
ADS エージェントを使用して検出をすでに完了していて、ADSデータベースリポジトリで追加のデータを収集したくない場合は、次の手順を実行します。
-
Migration Hub コンソールから、[Discover] (検出) > [Data Collectors] (データコレクタ) > [Agents] (エージェント) タブの順に選択します。
-
実行中の既存のすべてのエージェントを選択して、[Stop Data Collection (データ収集の停止)] を選択します。
これにより、データリポジトリと S3 バケットの両方のエージェントが新しいADSデータを収集することがなくなります。既存のデータには引き続きアクセスできます。
オプション 2: データ探索の Amazon Kinesis Data Streams を削除する
データリポジトリ内のエージェントによるデータ収集を継続するが、ADSデータ探索を使用して Amazon S3 バケット内のデータを収集しない場合は、データ探索によって作成された Amazon Data Firehose ストリームを手動で削除できます。
-
から Amazon Kinesis にログインする AWS コンソールで、ナビゲーションペインから Data Firehose を選択します。
-
データ探索機能によって作成された次のストリームを削除します。
-
aws-application-discovery-service-id_mapping_agent
-
aws-application-discovery-service-inbound_connection_agent
-
aws-application-discovery-service-network_interface_agent
-
aws-application-discovery-service-os_info_agent
-
aws-application-discovery-service-outbound_connection_agent
-
aws-application-discovery-service-processes_agent
-
aws-application-discovery-service-sys_performance_agent
-
データ探索によって収集されたデータを削除する
データ探索によって収集されたデータを削除するには
-
Amazon S3 に保存されている Discovery Agent データを削除します。
によって収集されるデータ AWS Application Discovery Service (ADS) は、 という名前の S3 バケットに保存されます
aws-application-discover-discovery-service-
。uniqueid
注記
Amazon Athena でのデータ探索が有効になっている間に Amazon S3 バケットまたはその中のオブジェクトを削除すると、エラーが発生します。 Amazon Athena 新しい検出エージェントデータを S3 に送信し続けます。削除されたデータには、Athena でもアクセスできなくなります。
-
Remove AWS Glue Data Catalog.
Amazon Athena でデータ探索を有効にすると、アカウントに Amazon S3 バケットが作成され、ADSエージェントによって定期的に収集されたデータが保存されます。さらに、 も作成されます。 AWS Glue Data Catalog は、Amazon Athena から Amazon S3 バケットに保存されているデータをクエリできるようにします。 Amazon Athena Amazon Athena でデータ探索をオフにすると、Amazon S3 バケットに新しいデータは保存されませんが、以前に収集されたデータは保持されます。このデータが不要になり、Amazon Athena でのデータ探索がオンになる前にアカウントを 状態に戻す場合。
-
から Amazon S3 にアクセスする AWS コンソールでaws-application-discover-discovery「-service-uniqueid」という名前のバケットを手動で削除します。
-
データ探索を手動で削除できます。 AWS application-discovery-service-database データベースとこれらのすべてのテーブルを削除して、 Glue Data Catalog を作成します。
-
os_info_agent
-
network_interface_agent
-
sys_performance_agent
-
processes_agent
-
inbound_connection_agent
-
outbound_connection_agent
-
id_mapping_agent
-
-
からデータを削除する AWS Application Discovery Service
Application Discovery Service からすべてのデータを削除するには、 にお問い合わせください。 AWS 完全なデータ削除をサポート
Amazon Athena でのデータ探索に関する一般的な問題を修正
このセクションでは、Amazon Athena でのデータ探索に関する一般的な問題を修正する方法について説明します。
トピック
サービスにリンクされたロールと が必要なため、Amazon Athena のデータ探索が開始されない AWS リソースを作成できない
Amazon Athena でデータ探索を有効にすると、必要な を作成できるサービスにリンクされたロール がAWSServiceRoleForApplicationDiscoveryServiceContinuousExport
アカウントに作成されます。 AWS Amazon S3 バケット、Amazon Kinesis ストリーム、 など、エージェントが収集したデータを Amazon Athena でアクセス可能にするための リソース Amazon Kinesis AWS Glue Data Catalog。 アカウントに、このロールを作成するための Amazon Athena でのデータ探索のための適切なアクセス許可がない場合、初期化は失敗します。「AWS の マネージドポリシー AWS Application Discovery Service」を参照してください。
新しいエージェントデータが Amazon Athena に表示されない
新しいデータが Athena に流れず、エージェントが起動してから 30 分以上経過しており、データ探索ステータスがアクティブである場合は、以下に示すソリューションを確認してください。
-
AWS 検出エージェント
エージェントの [Collection] (収集) ステータスが [Started] (開始済み) になっており、[Health]] (ヘルス) ステータスが [Running] (実行中) になっていることを確認します。
-
Kinesis ロール
アカウントに
AWSApplicationDiscoveryServiceFirehose
ロールがあることを確認します。
-
Firehose のステータス
次の Firehose 配信ストリームが正しく動作していることを確認します。
-
aws-application-discovery-service/os_info_agent
-
aws-application-discovery-service-network_interface_agent
-
aws-application-discovery-service-sys_performance_agent
-
aws-application-discovery-service-processes_agent
-
aws-application-discovery-service-inbound_connection_agent
-
aws-application-discovery-service-outbound_connection_agent
-
aws-application-discovery-service-id_mapping_agent
-
-
AWS Glue Data Catalog
application-discovery-service-database
データベースが にあることを確認します。 AWS Glue。 次のテーブルが に存在することを確認します。 AWS Glue:-
os_info_agent
-
network_interface_agent
-
sys_performance_agent
-
processes_agent
-
inbound_connection_agent
-
outbound_connection_agent
-
id_mapping_agent
-
-
Amazon S3 バケット
アカウントに
aws-application-discovery-service-
という名前の Amazon S3 バケットがあることを確認します。バケット内のオブジェクトが移動または削除された場合、それらは Athena で適切に表示されません。uniqueid
-
オンプレミスサーバー
エージェントがデータを収集して に送信できるように、サーバーが実行中であることを確認します。 AWS Application Discovery Service.
Amazon S3、Amazon Data Firehose、または にアクセスするための十分なアクセス許可がない AWS Glue
を使用している場合 AWS Organizations、および Amazon Athena でのデータ探索の初期化が失敗した場合、Amazon S3、Amazon Data Firehose、Athena、または にアクセスするアクセス許可がないためである可能性があります。 AWS Glue.
これらのサービスへのアクセス権を付与するには、管理者権限を持つIAMユーザーが必要です。管理者は、このアクセス権限を付与するために、ユーザーのアカウントを使用できます。「AWS の マネージドポリシー AWS Application Discovery Service」を参照してください。
Amazon Athena でのデータ探索が正しく機能するように、 を変更または削除しないでください。 AWS Amazon S3 バケット、Amazon Data Firehose Streams、および を含む Amazon Athena でのデータ探索によって作成された リソース AWS Glue Data Catalog。 これらのリソースを誤って削除または変更した場合は、データ探索を停止して開始すると、これらのリソースが自動的に再度作成されます。データ探索によって作成された Amazon S3 バケットを削除すると、バケットで収集されたデータが失われる可能性があります。
失敗したインポートレコードのトラブルシューティング
Migration Hub のインポートを使用すると、Discovery Connector または Discovery Agent を使用せずに、オンプレミス環境の詳細情報を Migration Hub に直接インポートできます。そのため、インポートデータを使用して、直接、移行の評価および計画を行うこともできます。デバイスをアプリケーションとしてグループ化し、それらの移行ステータスを追跡することもできます。
データをインポートする際、エラーが発生する可能性があります。通常、これらのエラーは、次のいずれかの原因により発生します。
-
インポート関連のクォータに到達した – インポートタスクに関連付けられたクォータがあります。そのクォータを超えるインポートタスクリクエストを行った場合、そのリクエストは失敗し、エラーが返されます。詳細については、「AWS Application Discovery Service のクォータ」を参照してください。
-
追加のカンマ (,) がインポートファイルに挿入されました – のカンマ。CSV ファイルは、1 つのフィールドを次のフィールドと区別するために使用されます。フィールド内にカンマを入れることはサポートされていません。カンマを入れるとフィールドが分割されます。これが原因で、フォーマットエラーのカスケードが生じることがあります。カンマはフィールド間でのみ使用され、インポートファイルで使用することはできません。
-
フィールドにサポート範囲外の値が含まれている –
CPU.NumberOfCores
など、一部のフィールドにはサポートする値の範囲が必要です。サポートされている範囲よりも多い、または少ない場合、レコードはインポートされません。
インポートリクエストでエラーが発生した場合は、インポートタスクの失敗したレコードをダウンロードして解決し、失敗したエントリCSVファイルのエラーを解決して、再度インポートを実行できます。
失敗したレコードのアーカイブがダウンロードされました。次に、中の 2 つのファイルを抽出してエラーを修正します。エラーがサービスベースの制限に関連付けられている場合は、制限の引き上げをリクエストするか、アカウントを制限以下にするのに十分な関連リソースを削除する必要があります。アーカイブには次のファイルがあります。
-
errors-file.csv – このファイルはエラーログで、失敗した各エントリの失敗した各レコードに関する行、列名、
ExternalId
、および説明的なエラーメッセージを追跡します。 -
failed-entries-file.csv – このファイルには、元のインポートファイルからの失敗したエントリのみが含まれます。
発生した non-limit-based エラーを修正するには、 を使用して failed-entries-file.csv
ファイルの問題errors-file.csv
を修正し、そのファイルをインポートします。ファイルのインポート手順については、「データのインポート」を参照してください。