データフローでモデルを自動的にトレーニングする - Amazon SageMaker

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

データフローでモデルを自動的にトレーニングする

Amazon SageMaker Autopilot を使用して、データフローで変換したデータに対してモデルを自動的にトレーニング、調整、デプロイできます。Amazon SageMaker Autopilot は、いくつかのアルゴリズムを経由し、データに最も適したアルゴリズムを使用できます。Amazon SageMaker Autopilot の詳細については、「」を参照してくださいSageMaker Autopilot

モデルをトレーニングしてチューニングすると、Data Wrangler は Amazon SageMaker Autopilot がアクセスできる Amazon S3 の場所にデータをエクスポートします。

Data Wrangler フローでノードを選択し、データプレビューで [エクスポートとトレーニング] を選択すると、モデルの準備とデプロイができます。モデルをトレーニングする前に、この方法を使用してデータセットを確認できます。

データフローから直接モデルをトレーニングしてデプロイすることもできます。

以下の手順では、データフローからモデルを準備してデプロイします。複数行の変換を含む Data Wrangler フローの場合、モデルをデプロイするときに Data Wrangler フローの変換を使用することはできません。次の手順を使用して、推論を実行する前にデータを処理することができます。

データフローから直接モデルをトレーニングしてデプロイするには、次の操作を行います。

  1. トレーニングデータを含むノードの横にある [+] を選択します。

  2. Choose Train model.

  3. (オプション) AWS KMS キーまたは ID を指定します。データを保護するための暗号キーの作成と制御の詳細については、「AWS Key Management Service」を参照してください。

  4. [エクスポートとトレーニング] を選択します。

  5. Amazon SageMaker Autopilot が Data Wrangler がエクスポートしたデータに対してモデルをトレーニングしたら、実験名 の名前を指定します。

  6. 「入力データ」で、プレビューを選択して、Data Wrangler が Amazon SageMaker Autopilot にデータを適切にエクスポートしたことを確認します。

  7. [ターゲット] では、ターゲット列を選択します。

  8. (オプション) [出力データ][S3 ロケーション] には、デフォルトの場所以外の Amazon S3 ロケーションを指定します。

  9. [次へ: トレーニング方法] を選択します。

  10. [トレーニング方法] を選択します。詳細については、「トレーニングモード」を参照してください。

  11. (オプション) [自動デプロイエンドポイント] でエンドポイントの名前を指定します。

  12. [デプロイオプション] でデプロイ方法を選択します。データに加えた変換を行うか行わないかにかかわらず、デプロイを選択できます。

    重要

    Data Wrangler フローで行った変換で Amazon SageMaker Autopilot モデルをデプロイすることはできません。変換の詳細については、「推論エンドポイントへのエクスポート」をご参照ください。

  13. [次へ: 確認と作成] を選択します。

  14. [Create experiment (実験の作成)] を選択します。

モデルの学習とデプロイの詳細については、「AutoML を使用して表形式データの回帰ジョブまたは分類ジョブを作成する API」を参照してください。Autopilot では、最適なモデルのパフォーマンスに関する分析が表示されます。モデルパフォーマンスの詳細については、「Autopilot モデルのパフォーマンスレポートを表示する」を参照してください。