Amazon Elastic Compute Cloud
Linux インスタンス用ユーザーガイド

Amazon Elastic Inference

Amazon Elastic Inference (EI) は、深層学習 (DL) の推論ワークロードを加速するために Amazon EC2 CPU インスタンスにアタッチできるリソースです。Amazon EI アクセラレーターは複数のサイズで提供され、Amazon EC2 インスタンス上で実行されるアプリケーションにインテリジェントな機能を組み込むための費用対効果の高い方法です

Amazon EI は、MXNet を介して TensorFlow、Apache MXNet、および Open Neural Network Exchange (ONNX) 形式で定義されたモデルオペレーションを、低コストの DL 推論アクセラレーターとインスタンスの CPU との間で分配します。

Amazon Elastic Inference の詳細については、「Amazon EI 開発者ガイド」を参照してください。