フレームワークプロファイリング用の推定器設定 - Amazon SageMaker AI

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

フレームワークプロファイリング用の推定器設定

警告

Amazon SageMaker Profiler を優先して、SageMaker AI デバッガーは TensorFlow 2.11 および PyTorch 2.0 以降のフレームワークプロファイリング機能を廃止します。以前のバージョンのフレームワークと SDK でも、次のようにこの機能を引き続き使用できます。

  • SageMaker Python SDK <= v2.130.0

  • PyTorch >= v1.6.0、< v2.0

  • TensorFlow >= v2.3.1、< v2.11

2023 年 3 月 16 日」も参照してください。

デバッガーフレームワークプロファイリングを有効にするには、推定器を構築するときに framework_profile_params パラメータを設定します。デバッガーフレームワークプロファイリングは、初期化段階のデータ、データローダープロセス、深層学習フレームワークとトレーニングスクリプトの Python 演算子、ステップ内およびステップ間の詳細なプロファイリングなどのフレームワークメトリクスを、cProfile または Pyinstrument オプションを使って収集します。FrameworkProfile クラスを使用すると、カスタムフレームワークのプロファイリングオプションを設定できます。

注記

デバッガーフレームワークのプロファイリングを始める前に、モデルの構築に使用されるフレームワークがフレームワークプロファイリングのためにデバッガーでサポートされていることを確認してください。詳細については、「サポート対象のフレームワークとアルゴリズム」を参照してください。

デバッガーは、フレームワークメトリクスをデフォルトの S3 バケットに保存します。デフォルトの S3 バケット URI の形式は、s3://sagemaker-<region>-<12digit_account_id>/<training-job-name>/profiler-output/ です。