SageMaker JumpStart - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

SageMaker JumpStart

Anmerkung

Um neue Funktionen mit einer vorhandenen Notebook-Instance oder Studio-App zu verwenden, müssen Sie die Notebook-Instanz oder die Studio-App neu starten, um die neuesten Updates zu erhalten. Weitere Informationen finden Sie unterAktualisieren von SageMaker Studio- und Studio-Appsaus.

Sie können SageMaker JumpStart verwenden, um über die Funktionen und Funktionen von SageMaker durch kuratierte 1-Click-Lösungen, Beispiel Notebooks und vortrainierte Modelle, die Sie bereitstellen können, zu erfahren. Sie können die Modelle auch feinabstimmen und bereitstellen.

Um auf JumpStart zuzugreifen, müssen Sie zuerst SageMaker Studio starten. JumpStart-Funktionen sind in SageMaker-Notebook-Instanzen nicht verfügbar, und Sie können nicht über SageMaker-APIs oder dieAWSCLI.

Öffnen Sie JumpStart mit dem JumpStart-Launcher imErste Schritteoder indem Sie das JumpStart-Symbol wählen ( ) imLinke Seitenleisteaus.

In derDatei- und Ressourcenbrowser(im linken Bereich) finden Sie JumpStart-Optionen. Von hier aus können Sie JumpStart nach Lösungen, Modellen, Notebooks und anderen Ressourcen durchsuchen oder Ihre derzeit eingeführten Lösungen, Endpunkte und Schulungsjobs anzeigen.

Um zu sehen, was JumpStart zu bieten hat, wählen Sie das JumpStart-Symbol aus und wählen Sie dannDurchsuchen JumpStartaus. JumpStart wird in einer neuen Registerkarte imHauptarbeitsbereichaus. Hier können Sie 1-Click-Lösungen, Modelle, Beispiel Notebooks, Blogs und Video-Tutorials durchsuchen.

Wichtig

Amazon SageMaker JumpStart stellt bestimmte Inhalte aus Drittanbieterquellen zur Verfügung. Folgende Inhalte unterliegen möglicherweise separaten Lizenzbedingungen. Sie sind dafür verantwortlich, alle geltenden Lizenzbedingungen zu überprüfen und einzuhalten und sicherzustellen, dass sie für Ihren Anwendungsfall akzeptabel sind, bevor Sie den Inhalt herunterladen oder verwenden.

Verwenden von JumpStart

Oben auf der JumpStart-Seite können Sie mit der Suche nach interessanten Themen suchen. 

Sie können JumpStart-Ressourcen finden, indem Sie die Suche verwenden oder in jeder Kategorie, die dem Suchfeld folgt, durchsuchen:

  • Lösungen— Starten Sie durchgängiges maschinelles Lernen, die SageMaker an andere bindenAWSDienste mit einem Klick.

  • Text-Modelle— Bereitstellen und Feinabstimmung vortrainierter Transformatoren für verschiedene Anwendungsfälle zur Verarbeitung natürlicher Sprache.

  • Vision-Modelle— Bereitstellen und Feinabstimmung vortrainierter Modelle für die Bildklassifizierung und Objekterkennung mit einem Klick.

  • SageMaker-Algorithmen— Trainieren und implementieren Sie SageMaker-integrierte Algorithmen für verschiedene Problemtypen mit diesen Beispiel-Notebooks.

  • Beispiel-Notebooks— Führen Sie Beispiel-Notebooks aus, die SageMaker-Funktionen wie Spot-Instance-Schulungen und Experimente in einer Vielzahl von Modelltypen und Anwendungsfällen verwenden.

  • Blogs— Lesen Sie tiefe Tauchgänge und Lösungen von Experten für maschinelles Lernen, die von Amazon gehostet werden.

  • Video-Tutorials— Sehen Sie sich Video-Tutorials für SageMaker-Funktionen und Anwendungsfälle für maschinelles Lernen von Experten für maschinelles Lernen an, die von Amazon gehostet

Solutions

Wenn Sie sich für eine Lösung entscheiden, zeigt JumpStart eine Beschreibung der Lösung und einstarten. Wenn du klickststartenerstellt JumpStart alle Ressourcen, die zum Ausführen der Lösung erforderlich sind, einschließlich Schulungs- und Modellhosting-Instanzen. Nachdem JumpStart die Lösung gestartet hat, zeigt JumpStart eineÖffnen eines Notebooks. Sie können auf die Schaltfläche klicken, um die bereitgestellten Notebooks zu verwenden und die Funktionen der Lösung zu erkunden. Da Artefakte während des Starts oder nach dem Ausführen der bereitgestellten Notebooks generiert werden, werden sie imGenerierte Artefakte-Tabelle Sie können einzelne Artefakte mit dem Papierkorb-Symbol löschen ( ) enthalten. Sie können alle Ressourcen der Lösung löschen, indem SieLöschen von Lösungsressourcaus.

Models

Modelle sind für die schnelle Bereitstellung direkt von JumpStart verfügbar. Einige dieser Modelle können Sie auch abstimmen. Wenn Sie die Modelle durchsuchen, können Sie zu den Abschnitten „Deploy“ und „Feinabstimmung“ aufBeschreibungAbschnitts erstellt. In derBeschreibungerfahren Sie mehr über das Modell, einschließlich dessen, was es mit dem Modell tun kann, welche Art von Ein- und Ausgängen erwartet werden und welche Art von Daten Sie benötigen, wenn Sie Transfer Learning zur Feinabstimmung des Modells verwenden möchten.

In der folgenden Tabelle sind die derzeit in JumpStart angebotenen Modelle aufgeführt. Die verfügbaren Modelle sind nach Modelltyp und Aufgabe sortiert. Um andere Modellsätze anzuzeigen, klicken Sie auf die Task-Registerkarte für diese Modelle.

Text-Modelle

Text Classification Models

Model Feinabstimmbar Quelle
BERT Sockel gehäst Ja TensorFlow-Hub
BERT Basismedline/PubMed Ja TensorFlow-Hub
BERT Base Mehrsprachig Ja TensorFlow-Hub
Bert-Basis Uncased Ja TensorFlow-Hub
BERT Base WikiPedia und BookCorpus Ja TensorFlow-Hub
BERT Large Cased Ja TensorFlow-Hub
BERT Maskierung mit großem Gehäuse Ja TensorFlow-Hub
BERT Große Uncased Ganzwort-Maskierung Ja TensorFlow-Hub
Electra-Base++ Ja TensorFlow-Hub
Electra-Small++ Ja TensorFlow-Hub
Text Generation Models

Model Feinabstimmbar Quelle
DistilGPT 2 Nein Umarmendes Gesicht
GPT 2 Nein Umarmendes Gesicht
GPT 2 Large Nein Umarmendes Gesicht
GPT 2 Medium Nein Umarmendes Gesicht
OpenAI GPT Nein Umarmendes Gesicht
Extractive Question Answering Models

Model Feinabstimmbar Quelle
BERT Sockel gehäst Ja PyTorch-Hub
BERT Base Mehrsprachig Ja PyTorch-Hub
BERT Base Mehrsprachig Uncased Ja PyTorch-Hub
Bert-Basis Uncased Ja PyTorch-Hub
BERT Large Cased Ja PyTorch-Hub
BERT Maskierung mit großem Gehäuse Ja PyTorch-Hub
BERT Maskierung sQuad mit großem Gehäuse Ja PyTorch-Hub
BERT Large Uncased Ja PyTorch-Hub
BERT Große Uncased Ganzwort-Maskierung Ja PyTorch-Hub
BERT Große Uncased Ganzes Wort Masking sQuad Ja PyTorch-Hub
DistilBert Base Cased Ja PyTorch-Hub
DistilBert Base Mehrsprachig Cased Ja PyTorch-Hub
DistilBert Base Uncased Ja PyTorch-Hub
DistilRoberta Basis Ja PyTorch-Hub
RobertA-Basis Ja PyTorch-Hub
Roberta Base OpenAI Ja PyTorch-Hub
RoberTa Large Ja PyTorch-Hub
Roberta Large-OpenAI Ja PyTorch-Hub
Sentence Pair Classification Models

Model Optimierbar Quelle
BERT Sockel gehäst Ja Fläche umarmen
BERT Sockel gehäst Ja TensorFlow Hub
BERT Basismedline/PubMed Ja TensorFlow Hub
BERT Base Mehrsprachig Ja Fläche umarmen
BERT Base Mehrsprachig Ja TensorFlow Hub
BERT Base Mehrsprachig Uncased Ja Fläche umarmen
Bert-Basis Uncased Ja Fläche umarmen
Bert-Basis Uncased Ja TensorFlow Hub
BERT Base Wikipedia und BookScorpus Ja TensorFlow Hub
BERT Large Cased Ja Fläche umarmen
BERT Maskierung mit großem Gehäuse Ja Fläche umarmen
BERT Maskierung mit großem Gehäuse Ja TensorFlow Hub
BERT Large Uncased Ja Fläche umarmen
BERT Large Uncased Ja TensorFlow Hub
BERT Große Uncased Ganzwort-Maskierung Ja Fläche umarmen
BERT Große Uncased Ganzwort-Maskierung Ja TensorFlow Hub
DistilBert Base Cased Ja Fläche umarmen
DistilBert Base Mehrsprachig Cased Ja Fläche umarmen
DistilBert Base Uncased Ja Fläche umarmen
DistilRoberta Basis Ja Fläche umarmen
Electra-Base++ Ja TensorFlow Hub
Electra-Small++ Ja TensorFlow Hub
RobertA-Basis Ja Fläche umarmen
Roberta Base OpenAI Ja Fläche umarmen
RoberTa Large Ja Fläche umarmen
Roberta Large-OpenAI Ja Fläche umarmen
XLM CLM Englisch-Deutsch Ja Fläche umarmen
XLM MLM 15 XNLI-Sprachen Ja Fläche umarmen
XLM MLM Englisch-Deutsch Ja Fläche umarmen
XLM MLM Englisch-Rumänisch Ja Fläche umarmen
XLM MLM TLM 15 XNLI-Sprachen Ja Fläche umarmen

Visions-Modelle

Image Classification Models

Model Optimierbar Quelle
AlexNet Ja PyTorch-Hub
Bit-m R101x1 Ja TensorFlow Hub
Bit-m R101x1 Imagenet-21K Ja TensorFlow Hub
Bit-m R101x3 Ja TensorFlow Hub
Bit-m R101x3 Imagenet-21K Ja TensorFlow Hub
Bit-m R50x1 Ja TensorFlow Hub
Bit-m R50x1 Imagenet-21K Ja TensorFlow Hub
Bit-m R50x3 Ja TensorFlow Hub
Bit-m R50x3 Imagenet-21K Ja TensorFlow Hub
Bit-s R101x1 Ja TensorFlow Hub
Bit-s R101x3 Ja TensorFlow Hub
Bit-s R50x1 Ja TensorFlow Hub
Bit-s R50x3 Ja TensorFlow Hub
DenseNet 121 Ja PyTorch-Hub
DenseNet 161 Ja PyTorch-Hub
DenseNet 169 Ja PyTorch-Hub
DenseNet 201 Ja PyTorch-Hub
EfficientNet B0 Ja TensorFlow Hub
EfficientNet B0 Lite Ja TensorFlow Hub
EfficientNet B1 Ja TensorFlow Hub
EfficientNet B1 Lite Ja TensorFlow Hub
EfficientNet B2 Ja TensorFlow Hub
EfficientNet B2 Lite Ja TensorFlow Hub
EfficientNet B3 Ja TensorFlow Hub
EfficientNet B3 Lite Ja TensorFlow Hub
EfficientNet B4 Ja TensorFlow Hub
EfficientNet B4 Lite Ja TensorFlow Hub
EfficientNet B5 Ja TensorFlow Hub
EfficientNet B6 Ja TensorFlow Hub
EfficientNet B7 Ja TensorFlow Hub
GoogleNet Ja PyTorch-Hub
Einführung ResNet V2 Ja TensorFlow Hub
Gründung V1 Ja TensorFlow Hub
Gründung V2 Ja TensorFlow
Gründung V3 Ja TensorFlow
Inception V3-Vorschau Ja TensorFlow
MobileNet V1 0,25 128 Ja TensorFlow Hub
MobileNet V1 0.25 160 Ja TensorFlow Hub
MobileNet V1 0,25 192 Ja TensorFlow
MobileNet V1 0,25 224 Ja TensorFlow
MobileNet V1 0,50 128 Ja TensorFlow
MobileNet V1 0,50 160 Ja TensorFlow
MobileNet V1 0,50 192 Ja TensorFlow
MobileNet V1 0,50 224 Ja TensorFlow
MobileNet V1 0,75 128 Ja TensorFlow
MobileNet V1 0,75 160 Ja TensorFlow
MobileNet V1 0,75 192 Ja TensorFlow
MobileNet V1 0,75 224 Ja TensorFlow
MobileNet V1 1.00 128 Ja TensorFlow
MobileNet V1 1.00 160 Ja TensorFlow
MobileNet V1 1.00 192 Ja TensorFlow
MobileNet V1 1.00 224 Ja TensorFlow
MobileNet V2 Ja TensorFlow
MobileNet V2 Ja PyTorch-Hub
MobileNet V2 0,35 224 Ja TensorFlow
MobileNet V2 0,50 224 Ja TensorFlow
MobileNet V2 0,75 224 Ja TensorFlow
MobileNet V2 1.00 224 Ja TensorFlow
MobileNet V2 1.30 224 Ja TensorFlow
MobileNet V2 1.40 224 Ja TensorFlow
ResNet 101 Ja PyTorch-Hub
ResNet 152 Ja PyTorch-Hub
ResNet 18 Ja PyTorch-Hub
ResNet 34 Ja PyTorch-Hub
ResNet 50 Ja TensorFlow
ResNet 50 Ja PyTorch-Hub
ResNet V1 101 Ja TensorFlow
ResNet V1 152 Ja TensorFlow
ResNet V1 50 Ja TensorFlow
ResNet V2 101 Ja TensorFlow
ResNet V2 152 Ja TensorFlow
ResNet V2 50 Ja TensorFlow
Weiter 101 Ja PyTorch-Hub
Weiter 50 Ja PyTorch-Hub
ShuffleNet V2 Ja PyTorch-Hub
SqueezeNet 0 Ja PyTorch-Hub
SqueezeNet 1 Ja PyTorch-Hub
VGG 11 Ja PyTorch-Hub
VGG 11 MRD. Ja PyTorch-Hub
VGG-13 Ja PyTorch-Hub
VGG 13 MRD. Ja PyTorch-Hub
VGG 16 Ja PyTorch-Hub
VGG 16 MRD. Ja PyTorch-Hub
VGG 19 Ja PyTorch-Hub
VGG 19 MRD. Ja PyTorch-Hub
Breit ResNet 101 Ja PyTorch-Hub
Breite ResNet Ja PyTorch-Hub
Image Embedding Models

Model Optimierbar Quelle
Bit-m R101x1 Feature-Vektor Nein TensorFlow
Bit-m R101x3 Imagenet-21k Feature-Vektor Nein TensorFlow
Bit-m R50x1 Feature-Vektor Nein TensorFlow
Bit-m R50x3 Imagenet-21K Nein TensorFlow
Bit-s R101x1 Feature-Vektor Nein TensorFlow
Bit-s R101x3 Feature-Vektor Nein TensorFlow
Bit-s R50x1 Feature-Vektor Nein TensorFlow
Bit-s R50x3 Feature-Vektor Nein TensorFlow
EfficientNet B0 Feature-Vektor Nein TensorFlow
EfficientNet B0 Lite-Feature-Vektor Nein TensorFlow
EfficientNet B1 Feature-Vektor Nein TensorFlow
EfficientNet B1 Lite-Feature-Vektor Nein TensorFlow
EfficientNet B2 Feature-Vektor Nein TensorFlow
EfficientNet B2 Lite-Feature-Vektor Nein TensorFlow
EfficientNet B3 Feature-Vektor Nein TensorFlow
EfficientNet B3 Lite-Feature-Vektor Nein TensorFlow
EfficientNet B4 Lite Feature-Vektor Nein TensorFlow
EfficientNet B6 Feature-Vektor Nein TensorFlow
Inception V1 Feature-Vektor Nein TensorFlow
Inception V2 Feature-Vektor Nein TensorFlow
Inception V3 Feature-Vektor Nein TensorFlow
Inception V3 Vorschau Feature-Vektor Nein TensorFlow
MobileNet V1 0.25 128 Feature-Vektor Nein TensorFlow
MobileNet V1 0.25 160 Feature-Vektor Nein TensorFlow
MobileNet V1 0.25 192 Feature-Vektor Nein TensorFlow
MobileNet V1 0.25 224 Feature-Vektor Nein TensorFlow
MobileNet V1 0.50 128 Feature-Vektor Nein TensorFlow
MobileNet V1 0.50 160 Feature-Vektor Nein TensorFlow
MobileNet V1 0.50 192 Feature-Vektor Nein TensorFlow
MobileNet V1 0.50 224 Feature-Vektor Nein TensorFlow
MobileNet V1 0.75 128 Feature-Vektor Nein TensorFlow Hub
MobileNet V1 0.75 160 Feature-Vektor Nein TensorFlow Hub
MobileNet V1 0.75 192 Feature-Vektor Nein TensorFlow Hub
MobileNet V1 0.75 224 Feature-Vektor Nein TensorFlow
MobileNet V1 1.00 128 Feature-Vektor Nein TensorFlow
MobileNet V1 1.00 160 Feature-Vektor Nein TensorFlow Hub
MobileNet V1 1.00 192 Feature-Vektor Nein TensorFlow Hub
MobileNet V1 1.00 224 Feature-Vektor Nein TensorFlow Hub
MobileNet V2 0.35 224 Feature-Vektor Nein TensorFlow Hub
MobileNet V2 0,50 224 Nein TensorFlow Hub
MobileNet V2 0.75 224 Feature-Vektor Nein TensorFlow Hub
MobileNet V2 1.00 224 Feature-Vektor Nein TensorFlow Hub
MobileNet V2 1.30 224 Feature-Vektor Nein TensorFlow Hub
MobileNet V2 1.40 224 Feature-Vektor Nein TensorFlow Hub
MobileNet V2 Feature-Vektor Nein TensorFlow Hub
ResNet 50 Feature-Vektor Nein TensorFlow Hub
ResNet V1 101 Feature-Vektor Nein TensorFlow Hub
ResNet V1 152 Feature-Vektor Nein TensorFlow Hub
ResNet V1 50 Feature-Vektor Nein TensorFlow Hub
ResNet V2 101 Feature-Vektor Nein TensorFlow Hub
ResNet V2 152 Feature-Vektor Nein TensorFlow Hub
ResNet V2 50 Feature-Vektor Nein TensorFlow Hub
Object Detection Models

Model Optimierbar Quelle
CenterNet 1024x1024 Nein TensorFlow Hub
CenterNet 1024x1024 Keypoints Nein TensorFlow Hub
CenterNet 512x512 Nein TensorFlow Hub
CenterNet 512x512 Keypoints Nein TensorFlow Hub
CenterNet ResNet-v1-101 Nein TensorFlow Hub
CenterNet ResNet-v1-50 Nein TensorFlow Hub
CenterNet ResNet-v1-50 Keypoints Nein TensorFlow Hub
CenterNet ResNet-V2-50 Nein TensorFlow Hub
CenterNet ResNet-V2-50 Keypoints Nein TensorFlow Hub
Schneller R-CNN Resnet V2 1024x1024 Nein TensorFlow Hub
Schneller R-CNN Resnet V2 640x640 Nein TensorFlow Hub
Schneller R-CNN Resnet-101 V1 1024x1024 Nein TensorFlow Hub
Schneller R-CNN Resnet-101 V1 640x640 Nein TensorFlow Hub
Schneller R-CNN Resnet-101 V1 800x1333 Nein TensorFlow Hub
Schneller R-CNN Resnet-152 V1 1024x1024 Nein TensorFlow Hub
Schneller R-CNN Resnet-152 V1 800x1333 Nein TensorFlow Hub
Schneller R-CNN Resnet-152 V1 640x640 Nein TensorFlow Hub
Schneller R-CNN Resnet-50 V1 1024x1024 Nein TensorFlow Hub
Schneller R-CNN Resnet-50 V1 640x640 Nein TensorFlow Hub
Schneller R-CNN Resnet-50 V1 800x1333 Nein TensorFlow Hub
Schneller RCNN ResNet 101 V1d Nein GluonCV
Schneller RCNN ResNet 50 V1b Nein GluonCV
FRCNN MobileNet V3 groß 320 FPN Nein PyTorch-Hub
FRCNN MobileNet V3 großes FPN Nein PyTorch-Hub
FRCNN ResNet 50 FPN Nein PyTorch-Hub
Retinanet SSD Resnet-101 1024x1024 Nein TensorFlow Hub
Retinanet SSD Resnet-101 640x640 Nein TensorFlow Hub
Retinanet SSD Resnet-152 1024x1024 Nein TensorFlow Hub
Retinanet SSD Resnet-152 640x640 Nein TensorFlow Hub
Retinanet SSD Resnet-50 1024x1024 Nein TensorFlow Hub
Retinanet SSD Resnet-50 640x640 Nein TensorFlow Hub
SSD Nein PyTorch-Hub
SSD 512 ResNet 50 V1 Ja GluonCV
SSD EfficientDet D0 Nein TensorFlow Hub
SSD EfficientDet D1 Nein TensorFlow Hub
SSD EfficientDet D2 Nein TensorFlow Hub
SSD EfficientDet Nein TensorFlow Hub
SSD EfficientDet D4 Nein TensorFlow Hub
SSD EfficientDet D5 Nein TensorFlow Hub
SSD MobileNet 1.0 Ja GluonCV
SSD Mobilenet V1 640x640 Nein TensorFlow Hub
V2 SSD Mobilenet Nein TensorFlow Hub
SSD Mobilenet V2 320x320 Nein TensorFlow Hub
SSD Mobilenet V2 640x640 Nein TensorFlow Hub
SSD ResNet 50 V1 Ja GluonCV
SSD VGG 16 Atrous 300 Ja GluonCV
SSD VGG 16 Atrous 512 Ja GluonCV
YOLO V3 DarkNet 53 Nein GluonCV
YOLO V3 MobileNet 1.0 Nein GluonCV

Bereitstellen eines Modells

Wenn Sie ein Modell von JumpStart aus bereitstellen, hostet SageMaker das Modell und stellt einen Endpunkt bereit, den Sie für Rückschlüsse verwenden können. JumpStart bietet auch ein Beispiel-Notebook, mit dem Sie nach der Bereitstellung auf das Modell zugreifen können.

Modellbereitstellungskonfiguration

Nachdem Sie sich für ein Modell entschieden haben, wird derBereitstellen von Modellwird geöffnet. Klicken Sie aufBereitstellungskonfigurationum Ihre Modellbereitstellung zu konfigurieren.

DerMaschinentypFür die Bereitstellung eines Modells hängt vom Modell ab. Der Maschinentyp ist die Hardware, auf der der Trainingsauftrag ausgeführt wird. Im folgenden Beispiel wird derml.m5.large-Instanz ist der Standardwert für dieses bestimmte BERT-Modell.

Sie können auch dieEndpunktnameaus.

Feinabstimmung eines Modells

Die Feinabstimmung trainiert ein vortrainiertes Modell auf einem neuen Datensatz ohne Training von Grund auf neu. Dieser Prozess, auch Transfer Learning genannt, kann genaue Modelle mit kleineren Datensätzen und weniger Trainingszeit erzeugen.

Feinabstimmung der Datenquelle

Wenn Sie ein Modell feinabstimmen, können Sie das Standarddataset verwenden oder Ihre eigenen Daten auswählen, die sich in einem S3-Bucket befinden.

Um die verfügbaren Buckets zu durchsuchen, wählen SieFinden Sie S3-Bucketaus. Diese Buckets sind durch die Berechtigungen beschränkt, die zum Einrichten Ihres Studio-Kontos verwendet werden. Sie können auch einen S3-URI angeben, indem SieGeben Sie den S3-Bucket-Standortaus.

Tipp

Um herauszufinden, wie Sie die Daten in Ihrem Bucket formatieren, wählen SieWeitere Informationenaus. Der Beschreibungsabschnitt für das Modell enthält auch detaillierte Informationen zu Ein- und Ausgängen. 

Für Textmodelle:

  • Der Bucket muss eine Datei data.csv haben.

  • Die erste Spalte muss eine eindeutige ganze Zahl für die Klassenbezeichnung sein. Zum Beispiel: 1, 2, 3, 4, n.

  • Die zweite Spalte muss eine Zeichenfolge sein.

  • Die zweite Spalte sollte den entsprechenden Text enthalten, der dem Typ und der Sprache für das Modell entspricht. 

Für Vision-Modelle:

  • Der Bucket muss so viele Unterverzeichnisse haben wie die Anzahl der Klassen.

  • Jedes Unterverzeichnis sollte Bilder enthalten, die im JPG-Format zu dieser Klasse gehören.

Anmerkung

Der S3-Bucket muss sich im selben befindenAWSRegion, in der Sie SageMaker Studio betreiben, da SageMaker keine regionsübergreifenden Anfragen zulässt.

Feinabstimmung der Bereitstellungskonfiguration

Die p3-Familie wird als schnellste für Deep-Learning-Training empfohlen, und dies wird zur Feinabstimmung eines Modells empfohlen. Die folgende Tabelle zeigt die Anzahl der GPUs in jedem Instance-Typ. Es gibt andere verfügbare Optionen, aus denen Sie wählen können, einschließlich p2- und g4-Instanztypen.

Instance-Typ GPUs
p3.2xlarge 1
p3.8xlarge 4
p3.16xlarge 8
p3dn.24xlarge 8

Hyperparameters

Sie können die Hyperparameter des Trainingsauftrags anpassen, die zur Feinabstimmung des Modells verwendet werden. 

Wenn Sie das Standarddataset für Textmodelle verwenden, ohne die Hyperparameter zu ändern, erhalten Sie als Ergebnis ein nahezu identisches Modell. Bei Vision-Modellen unterscheidet sich der Standarddatensatz von dem Datensatz, der zum Trainieren der vortrainierten Modelle verwendet wird, sodass Ihr Modell infolgedessen anders ist.

Sie haben die folgenden Hyperparameter-Optionen:

  • Epochen— Eine Epoche ist ein Zyklus durch den gesamten Datensatz. Mehrere Intervalle vervollständigen eine Charge, und mehrere Chargen vervollständigen schließlich eine Epoche. Mehrere Epochen werden ausgeführt, bis die Genauigkeit des Modells ein akzeptables Niveau erreicht, oder mit anderen Worten, wenn die Fehlerrate unter ein akzeptables Niveau fällt.

  • Learning rate (Lernrate)— Der Betrag, in dem Werte zwischen Epochen geändert werden sollten. Während das Modell verfeinert wird, werden seine internen Gewichte angestoßen und die Fehlerraten werden überprüft, um festzustellen, ob sich das Modell verbessert. Eine typische Lernrate beträgt 0,1 oder 0,01, wobei 0,01 eine viel kleinere Anpassung ist und dazu führen könnte, dass das Training lange dauert, bis 0,1 viel größer ist und dazu führen kann, dass das Training überschwindet. Es ist einer der primären Hyperparameter, die Sie für das Training Ihres Modells anpassen können. Beachten Sie, dass bei Textmodellen eine viel geringere Lernrate (5e-5 für BERT) zu einem genaueren Modell führen kann.

  • Stapel-Größe— Die Anzahl der Datensätze aus dem Datensatz, die für jedes Intervall ausgewählt werden sollen, das an die im Training verfügbaren GPUs gesendet werden soll. In einem Bildbeispiel könnten Sie 32 Bilder pro GPU senden, also wäre 32 Ihre Chargengröße. Wenn Sie einen Instanztyp mit mehr als einer GPU wählen, wird der Stapel durch die Anzahl der GPUs geteilt. Die vorgeschlagene Chargengröße variiert je nach Daten und Modell, die Sie verwenden. Wie Sie beispielsweise für Bilddaten optimieren, unterscheidet sich von der Art und Weise, wie Sie mit Sprachdaten umgehen. Im Instanztypdiagramm im Abschnitt zur Bereitstellungskonfiguration sehen Sie die Anzahl der GPUs pro Instance-Typ. Beginnen Sie mit einer empfohlenen Standard-Losgröße (z. B. 32 für ein Vision-Modell). Multiplizieren Sie dies dann mit der Anzahl der GPUs im ausgewählten Instanztyp. Wenn Sie z. B.p3.8xlarge, dies wären 32 (Chargengröße) *4 (GPUs), für insgesamt 128, da Ihre Chargengröße um die Anzahl der GPUs angepasst wurde. Versuchen Sie bei einem Textmodell wie BERT mit einer Chargengröße von 64 zu beginnen und dann nach Bedarf zu reduzieren.

Trainingsausgaben

Wenn der Feinabstimmungsprozess abgeschlossen ist, liefert JumpStart Informationen über das Modell: übergeordnetes Modell, Name des Schulungsauftrags, der Trainingsauftrag Amazon Resource Name (ARN), Schulungszeit und Ausgabepfad. Im Ausgabepfad finden Sie Ihr neues Modell in einem S3-Bucket. Die Ordnerstruktur verwendet den von Ihnen angegebenen Modellnamen und die Modelldatei befindet sich in einer/outputUnterordner und es heißt immermodel.tar.gzaus. 

Beispiel: s3://bucket/model-name/output/model.tar.gz