Amazon SageMaker AI のプログラミングモデル - Amazon SageMaker AI

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

Amazon SageMaker AI のプログラミングモデル

コードから直接 API コールを行うのは煩雑であり、リクエストを認証するコードを作成する必要があります。Amazon SageMaker AI には、次の代替手段があります。

  • SageMaker AI コンソールを使用する – コンソールでは、コードを記述しません。コンソール UI を使用して、モデルトレーニングを開始したり、モデルをデプロイしたりします。このコンソールは、組み込みのトレーニングアルゴリズムを使用した、トレーニングデータを前処理する必要のない簡単なジョブに適しています。

     

  • Jupyter Notebook の例を変更する – SageMaker AI には、特定のアルゴリズムとデータセットを使用してモデルをトレーニングおよびデプロイするいくつかの Jupyter Notebook が用意されています。適切なアルゴリズムを備えたノートブックから始め、データソースと特定のニーズに合わせてそれを変更します。

     

  • モデルトレーニングと推論コードを最初から記述する – SageMaker AI は、複数の AWS SDK 言語 (概要に記載) と Amazon SageMaker Python SDK を提供します。Amazon SageMaker Python SDK は、コード内でモデルトレーニングジョブを開始し、結果のモデルをデプロイするために使用できる高レベルの Python ライブラリです。

     

    • SageMaker Python SDK - この Python ライブラリは、モデルのトレーニングとデプロイを簡素化します。ライブラリは、リクエストを認証するだけでなく、簡単なメソッドとデフォルトのパラメータを提供することによって、プラットフォームの特質を抽象化します。例:

       

      • モデルをデプロイするには、deploy() メソッドを呼び出すだけです。メソッドは、エンドポイント設定である SageMaker AI モデルアーティファクトを作成し、そのモデルをエンドポイントにデプロイします。

         

      • モデルトレーニングにカスタムフレームワークスクリプトを使用する場合は、fit() メソッドを呼び出します。このメソッドは、スクリプトの .gzip ファイルを作成し、それを Amazon S3 の場所にアップロードした後、モデルトレーニングやその他のタスク用に実行します。詳細については、「機械学習フレームワークと言語」を参照してください。

         

      • SageMaker AI Python SDK によって行われた SageMaker API コールのデフォルトを設定するには、デフォルトの設定ディクショナリを使用します。詳細については、「Configuring and using defaults with the SageMaker Python SDK」を参照してください。

         

    • AWS SDKs – SDKs「」を参照Operations)。 SageMaker SDKs を使用してモデルトレーニングジョブをプログラムで開始し、SageMaker AI でモデルをホストします。SDK クライアントは認証を自動で処理するため、認証コードを記述する必要はありません。これらは、複数の言語とプラットフォームで利用できます。詳細については、概要の前述のリストを参照してください。

       

    ではAmazon SageMaker AI のセットアップガイド、SageMaker AI が提供するアルゴリズムを使用してモデルをトレーニングおよびデプロイします。この演習ではこれらの両方のライブラリを使用する方法を示しています。詳細については、「Amazon SageMaker AI のセットアップガイド」を参照してください。

     

  • SageMaker AI を Apache Spark ワークフローに統合する – SageMaker AI は、Apache Spark から APIs を呼び出すためのライブラリを提供します。これにより、Apache Spark パイプラインで SageMaker AI ベースの推定器を使用できます。詳細については、「Amazon SageMaker AI を使用した Apache Spark」を参照してください。