翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
ステップ 5: モデルを Amazon EC2 にデプロイする
予測を行うには、Amazon を使用して Amazon SageMaker EC2 にモデルをデプロイします。
トピック
SageMaker モデルをホスティングサービスにデプロイします。
Amazon を使用して Amazon EC2 を通じてモデルをホストするには SageMaker、トレーニングジョブを作成して実行するdeploy
xgb_model
エスティメーターのメソッドを呼び出してトレーニングしたモデルをデプロイします。deploy
メソッドを呼び出すときに、エンドポイントをホストするのに使用する EC2 機械学習インスタンスの数とタイプを指定します。
import sagemaker from sagemaker.serializers import CSVSerializer xgb_predictor=xgb_model.deploy( initial_instance_count=1, instance_type='ml.t2.medium', serializer=CSVSerializer() )
-
initial_instance_count
(int) - モデルをデプロイするインスタンスの数。 -
instance_type
(str) - デプロイされたモデルを操作するインスタンスのタイプ。 -
serializer
(int) — さまざまな形式 ( NumPy 配列、リスト、ファイル、バッファ) の入力データを CSV 形式の文字列にシリアル化します。XGBoost アルゴリズムでは CSV 形式の入力ファイルを使用できるため、このファイルを使用します。
deploy
このメソッドは、デプロイ可能なモデルを作成し、 SageMakerホスティングサービスのエンドポイントを設定し、モデルをホストするエンドポイントを起動します。詳細については、Amazon SageMaker Python SageMaker deploy
メソッドで生成されたエンドポイントの名前を取得するには、次のコードを実行します。
xgb_predictor.endpoint_name
これにより xgb_predictor
のエンドポイント名が返されます。エンドポイント名の形式は "sagemaker-xgboost-YYYY-MM-DD-HH-MM-SS-SSS"
になります。このエンドポイントは機械学習インスタンスでアクティブなままとなるため、後でシャットダウンしない限り、いつでも瞬時に予測を行うことができます。このエンドポイント名をコピーして保存し、 SageMaker Studio または Notebook インスタンスの他の場所で再利用したりリアルタイム予測を行ったりできます。 SageMaker
ヒント
Amazon EC2 インスタンスやエッジデバイスにデプロイするのためのモデルのコンパイルと最適化の詳細については、「Neo でモデルをコンパイルしてデプロイする」を参照してください。
(オプション) SageMaker Predictor を使用してホストされたエンドポイントを再利用する
モデルをエンドポイントにデプロイしたら、 SageMaker エンドポイントをペアリングして新しい予測変数を設定し、他のノートブックで継続的にリアルタイム予測を行うことができます。次のコード例は、 SageMaker Predictor クラスを使用して同じエンドポイントを使用して新しい予測オブジェクトを設定する方法を示しています。xgb_predictor
に使用したエンドポイント名を再利用します。
import sagemaker xgb_predictor_reuse=sagemaker.predictor.Predictor( endpoint_name="
sagemaker-xgboost-YYYY-MM-DD-HH-MM-SS-SSS
", sagemaker_session=sagemaker.Session(), serializer=sagemaker.serializers.CSVSerializer() )
xgb_predictor_reuse
予測子はオリジナルの xgb_predictor
とまったく同じ動作をします。詳細については、Amazon SageMaker Python SDK SageMaker
(オプション) バッチ変換を使用して予測を行う
本番環境でエンドポイントをホストする代わりに、1 回限りのバッチ推論ジョブを実行して、バッチトランスフォームを使用してテストデータセットの予測を行うことができます。 SageMaker モデルトレーニングが完了したら、推定器を Transformer transformer
クラスに基づくオブジェクトに拡張できます。SageMaker
バッチ変換ジョブを実行するには
次のコードを実行して、テストデータセットの特徴列を CSV ファイルに変換し、S3 バケットにアップロードします。
X_test.to_csv('test.csv', index=False, header=False) boto3.Session().resource('s3').Bucket(bucket).Object( os.path.join(prefix, 'test/test.csv')).upload_file('test.csv')
バッチ変換ジョブの入力および出力の S3 バケット URI を、次に示すように指定します。
# The location of the test dataset batch_input = 's3://{}/{}/test'.format(bucket, prefix) # The location to store the results of the batch transform job batch_output = 's3://{}/{}/batch-prediction'.format(bucket, prefix)
パラメータの最小数を指定する transformer オブジェクトを作成します。次に示すように、
instance_count
とinstance_type
のパラメータはバッチ変換ジョブを実行するためのパラメータであり、output_path
は予測データを保存するためのパラメータです。transformer = xgb_model.transformer( instance_count=1, instance_type='ml.m4.xlarge', output_path=batch_output )
次に示すように、
transformer
オブジェクトのtransform()
メソッドを実行して、バッチ変換ジョブを開始します。transformer.transform( data=batch_input, data_type='S3Prefix', content_type='text/csv', split_type='Line' ) transformer.wait()
バッチ変換ジョブが完了すると、 SageMaker
test.csv.out
batch_output
パスに保存された予測データが以下の形式で作成されます。s3://sagemaker-<region>-111122223333/demo-sagemaker-xgboost-adult-income-prediction/batch-prediction
AWS CLI 以下を実行して、バッチ変換ジョブの出力データをダウンロードします。! aws s3 cp {batch_output} ./ --recursive
これにより、現在の作業ディレクトリの下に
test.csv.out
ファイルが作成されます。XGBoost トレーニングジョブのロジスティック回帰に基づいて予測される浮動値を確認できます。