デバイスのセットアップ - Amazon SageMaker AI

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

デバイスのセットアップ

デバイスが推論できるように、エッジデバイスにパッケージをインストールする必要があります。また、AWS IoT Greengrass コアまたは Deep Learning Runtime (DLR) のどちらかをインストールする必要があります。この例では、coco_ssd_mobilenet オブジェクト検出アルゴリズムの推論を実行するために必要なパッケージをインストールし、DLR を使います。

  1. 追加のパッケージをインストールする

    エッジデバイスには、Boto3 に加えて、特定のライブラリをインストールする必要があります。インストールするライブラリは、ユースケースによって異なります。

    例えば、先ほどダウンロードした coco_ssd_mobilenet オブジェクト検出アルゴリズムの場合、データ操作と統計のための NumPy、イメージをロードするための PIL、プロットを生成するための Matplotlib をインストールする必要があります。また、Neo を使ったコンパイルの影響をベースラインに対して測定する場合は、TensorFlow のコピーが必要です。

    !pip3 install numpy pillow tensorflow matplotlib
  2. デバイスに推論エンジンをインストールする

    Neo コンパイル済みモデルを実行するには、デバイスに Deep Learning Runtime (DLR) をインストールします。DLR は、深層学習モデルと決定木モデルのためのコンパクトで汎用的なランタイムです。Linux を実行する x86_64 CPU ターゲットでは、次の pip コマンドを使って DLR パッケージの最新リリースをインストールできます。

    !pip install dlr

    GPU ターゲットまたは x86 以外のエッジデバイスに DLR をインストールする方法については、構築済みバイナリのリリースを参照してください。ソースから DLR を構築する場合は「DLR をインストールする」を参照してください。例えば、Raspberry Pi 3 の DLR をインストールするには、以下を使えます。

    !pip install https://neo-ai-dlr-release.s3-us-west-2.amazonaws.com/v1.3.0/pi-armv7l-raspbian4.14.71-glibc2_24-libstdcpp3_4/dlr-1.3.0-py3-none-any.whl