SageMaker Modellparallelitätsbibliothek v2 - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

SageMaker Modellparallelitätsbibliothek v2

Anmerkung

Seit der Veröffentlichung der SageMaker Modellparallelismus-Bibliothek (SMP) v2.0.0 am 19. Dezember 2023 wurde diese Dokumentation für die SMP-Bibliothek v2 erneuert. Frühere Versionen der SMP-Bibliothek finden Sie unter. (Archivierte) SageMaker Modellparallelismus-Bibliothek v1.x

Die Amazon SageMaker Model Parallelism Library ist eine Funktion SageMaker , die eine hohe Leistung und ein optimiertes Training in großem Maßstab auf SageMaker Accelerate-Compute-Instances ermöglicht. Kernfunktionen der SageMaker Modellparallelitätsbibliothek v2Dazu gehören Techniken und Optimierungen zur Beschleunigung und Vereinfachung des Trainings großer Modelle, wie z. B. hybride Sharded-Datenparallelität, Tensorparallelität, Aktivierungs-Checkpointing und Aktivierungs-Offloading. Sie können die SMP-Bibliothek verwenden, um das Training und die Feinabstimmung von Large Language Models (LLMs), Large Vision Models (LVMs) und Foundation Models (FMs) mit Hunderten von Milliarden von Parametern zu beschleunigen.

Die SageMaker Model Parallelism Library v2 (SMP v2) passt die APIs und Methoden der Bibliothek an den Open-Source-Standard PyTorch Fully Sharded Data Parallelism (FSDP) an, wodurch Sie die Vorteile von SMP-Leistungsoptimierungen mit minimalen Codeänderungen nutzen können. Mit SMP v2 können Sie die Rechenleistung beim Training eines großen Modells verbessern, indem Sie Ihre FSDP-Trainingsskripte darauf übertragen. state-of-the-art SageMaker PyTorch SageMaker

Sie können SMP v2 für allgemeine SageMaker Trainingsaufgaben und verteilte Trainingsworkloads auf Clustern verwenden. SageMaker HyperPod