本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
使用 AWS 神经元启动DLAMI实例
最新版本已准备DLAMI好与 AWS Inferentia 一起使用,并附带 Ne AWS ur API on 软件包。要启动实DLAMI例,请参阅启动和配置DLAMI。完成后DLAMI,请按照此处的步骤确保您的 AWS 推理芯片和 AWS 神经元资源处于活动状态。
验证您的实例
在使用您的实例之前,验证该实例是否已针对 Neuron 进行正确的设置和配置。
识别 AWS 推理设备
要确定实例上的 Inferentia 设备数量,请使用以下命令:
neuron-ls
如果您的实例已附加了 Inferentia 设备,则输出将如下所示:
+--------+--------+--------+-----------+--------------+ | NEURON | NEURON | NEURON | CONNECTED | PCI | | DEVICE | CORES | MEMORY | DEVICES | BDF | +--------+--------+--------+-----------+--------------+ | 0 | 4 | 8 GB | 1 | 0000:00:1c.0 | | 1 | 4 | 8 GB | 2, 0 | 0000:00:1d.0 | | 2 | 4 | 8 GB | 3, 1 | 0000:00:1e.0 | | 3 | 4 | 8 GB | 2 | 0000:00:1f.0 | +--------+--------+--------+-----------+--------------+
提供的输出取自 Inf1.6xlarge 实例,包括以下各列:
-
NEURONDEVICE:分配给的逻辑 ID NeuronDevice。在将多个运行时配置为使用不同的 NeuronDevices运行时时,会使用此 ID。
-
NEURONCORES: 中 NeuronCores 存在的数量 NeuronDevice。
-
NEURONMEMORY:中的DRAM内存量 NeuronDevice。
-
CONNECTEDDEVICES: 其他 NeuronDevices 连接到 NeuronDevice。
-
PCIBDF: 的PCI总线设备功能 (BDF) ID NeuronDevice。
查看资源使用量
使用neuron-top
命令查看有关 NeuronCore 和 v CPU 利用率、内存使用情况、加载的模型和 Neuron 应用程序的有用信息。不neuron-top
带参数启动将显示所有使用的机器学习应用程序的数据 NeuronCores。
neuron-top
当应用程序使用四时 NeuronCores,输出应类似于下图:
有关用于监控和优化基于 Neuron 的推理应用程序的资源的更多信息,请参阅 Neuron 工具
使用 Neuron Monitor(Neuron 监视器)
Neuron Monitor 从系统上运行的 Neuron 运行时收集指标,并将收集的数据以格式流式传输到 stdout。JSON这些指标按指标组进行组织,您可以通过提供配置文件进行配置。有关 Neuron Monitor 的更多信息,请参阅 Neuron Monitor 用户指南
升级 Neuron 软件
有关如何在其中更新 Neuron SDK 软件的信息DLAMI,请参阅《 AWS 神经元设置