使用 AWS 神经元启动DLAMI实例 - AWS Deep Learning AMIs

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

使用 AWS 神经元启动DLAMI实例

最新版本已准备DLAMI好与 AWS Inferentia 一起使用,并附带 Ne AWS ur API on 软件包。要启动实DLAMI例,请参阅启动和配置DLAMI。完成后DLAMI,请按照此处的步骤确保您的 AWS 推理芯片和 AWS 神经元资源处于活动状态。

验证您的实例

在使用您的实例之前,验证该实例是否已针对 Neuron 进行正确的设置和配置。

识别 AWS 推理设备

要确定实例上的 Inferentia 设备数量,请使用以下命令:

neuron-ls

如果您的实例已附加了 Inferentia 设备,则输出将如下所示:

+--------+--------+--------+-----------+--------------+ | NEURON | NEURON | NEURON | CONNECTED | PCI | | DEVICE | CORES | MEMORY | DEVICES | BDF | +--------+--------+--------+-----------+--------------+ | 0 | 4 | 8 GB | 1 | 0000:00:1c.0 | | 1 | 4 | 8 GB | 2, 0 | 0000:00:1d.0 | | 2 | 4 | 8 GB | 3, 1 | 0000:00:1e.0 | | 3 | 4 | 8 GB | 2 | 0000:00:1f.0 | +--------+--------+--------+-----------+--------------+

提供的输出取自 Inf1.6xlarge 实例,包括以下各列:

  • NEURONDEVICE:分配给的逻辑 ID NeuronDevice。在将多个运行时配置为使用不同的 NeuronDevices运行时时,会使用此 ID。

  • NEURONCORES: 中 NeuronCores 存在的数量 NeuronDevice。

  • NEURONMEMORY:中的DRAM内存量 NeuronDevice。

  • CONNECTEDDEVICES: 其他 NeuronDevices 连接到 NeuronDevice。

  • PCIBDF: 的PCI总线设备功能 (BDF) ID NeuronDevice。

查看资源使用量

使用neuron-top命令查看有关 NeuronCore 和 v CPU 利用率、内存使用情况、加载的模型和 Neuron 应用程序的有用信息。不neuron-top带参数启动将显示所有使用的机器学习应用程序的数据 NeuronCores。

neuron-top

当应用程序使用四时 NeuronCores,输出应类似于下图:

neuron-top命令的输出,其中一个命令的信息 NeuronCores 突出显示。

有关用于监控和优化基于 Neuron 的推理应用程序的资源的更多信息,请参阅 Neuron 工具

使用 Neuron Monitor(Neuron 监视器)

Neuron Monitor 从系统上运行的 Neuron 运行时收集指标,并将收集的数据以格式流式传输到 stdout。JSON这些指标按指标组进行组织,您可以通过提供配置文件进行配置。有关 Neuron Monitor 的更多信息,请参阅 Neuron Monitor 用户指南

升级 Neuron 软件

有关如何在其中更新 Neuron SDK 软件的信息DLAMI,请参阅《 AWS 神经元设置指南》。

下一个步骤

与 Ne AWS ur DLAMI on 一起使用