Empfohlene Inferenzinstanzen - Deep-Learning-AMI

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Empfohlene Inferenzinstanzen

AWS Inferentia-Instances sind so konzipiert, dass sie eine hohe Leistung und Kosteneffizienz für Inferenz-Workloads mit Deep-Learning-Modellen bieten. Insbesondere Inf2-Instance-Typen verwenden AWS Inferentia-Chips und das AWS Neuron SDK, das in beliebte Frameworks für maschinelles Lernen wie und integriert ist. TensorFlow PyTorch

Kunden können Inf2-Instances verwenden, um umfangreiche Inferenzanwendungen für maschinelles Lernen wie Suche, Empfehlungsmaschinen, Computer Vision, Spracherkennung, Verarbeitung natürlicher Sprache, Personalisierung und Betrugserkennung zu den niedrigsten Kosten in der Cloud auszuführen.

Anmerkung

Bei der Auswahl einer Instance sollte die Größe Ihres Modells berücksichtigt werden. Wenn Ihr Modell den verfügbaren Arbeitsspeicher einer Instance überschreitet, wählen Sie für Ihre Anwendung einen anderen Instance-Typ mit ausreichend Speicher.

Weitere Informationen zu den ersten Schritten mit AWS Inferentia DLAmis finden Sie unter. Der AWS Inferentia-Chip mit DLAMI

Nächstes Thema

Empfohlene Trainium-Instances