K-nearest neighbors (k-NN)-Algorithmus - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

K-nearest neighbors (k-NN)-Algorithmus

Der Amazon SageMaker k-Nearest Neighbors (k-NN) -Algorithmus ist ein indexbasierter Algorithmus. Er verwendet eine nicht parametrische Methode zur Klassifizierung oder Regression. Bei Klassifizierungsproblemen fragt der Algorithmus die k-Punkte ab, die dem Stichprobenpunkt am nächsten liegen, und gibt die am häufigsten verwendeten Bezeichnungen ihrer Klasse als prognostizierte Bezeichnung zurück. Bei Regressionsproblemen fragt der Algorithmus die k-Punkte ab, die dem Stichprobenpunkt am nächsten liegen, und gibt den Durchschnitt ihrer Funktionswerte als prognostizierten Wert zurück.

Das Training mit dem k-NN-Algorithmus umfasst drei Schritte: Sampling, Dimensionsreduzierung und Indexerstellung. Durch Sampling wird die Größe des anfänglichen Datensatzes reduziert, sodass es in den Arbeitsspeicher passt. Für die Dimensionsreduzierung verringert der Algorithmus die Funktionsdimension der Daten, um den Ressourcenbedarf des k-NN-Modells im Speicher und die Inferenzlatenz zu senken. Wir stellen zwei-Methoden der Dimensionsreduzierung zur Verfügung: zufällige Projektion und die schnelle Johnson-Lindenstrauss-Transformation. In der Regel verwenden Sie die Dimensionsreduzierung für hochdimensionale Datensätze (d > 1000), um die Nachteile der Dimensionalität zu vermeiden, die die statistische Analyse von Daten beeinträchtigt, deren Dichte mit steigender Dimensionalität geringer wird. Das Hauptziel des k-NN-Trainings ist die Erstellung des Index. Der Index ermöglicht ein effizientes Suchen von Entfernungen zwischen Punkten, deren Werte oder Klassenbezeichnungen noch nicht festgelegt wurden, und den k nächstgelegenen Punkten zur Inferenz.

E/A-Schnittstelle für den k-NN-Algorithmus

SageMaker k-NN unterstützt Train- und Testdatenkanäle.

  • Verwenden Sie einen Trainingskanal für Daten, die Sie als Stichproben erfassen und in den die k-NN-Index einbauen möchten.

  • Verwenden Sie ein Testkanal, um Punktzahlen in Protokolldateien auszugeben. Punktzahlen werden als eine Zeile pro Mini-Stapel aufgeführt: Genauigkeit für classifier, mittlerer quadratischer Fehler (MSE) für regressor für die Punktzahl.

Für Trainingseingaben unterstützt k-NN – text/csvund application/x-recordio-protobuf-Datenformate. Für den Eingabetyp text/csv werden die ersten label_size Spalten als Bezeichnungsvektor für diese Zeile interpretiert. Sie können entweder den Datei- oder den Pipe-Modus verwenden, um Modelle mit Daten, die als recordIO-wrapped-protobuf oder CSV formatiert sind, zu trainieren.

Für Inferenzeingaben unterstützt k-NN die application/json-, – application/x-recordio-protobufund text/csv-Datenformate. Das text/csv-Format akzeptiert eine label_size und einen Codierungsparameter. Es wird label_size von einer Kodierung von 0 und von UTF -8 ausgegangen.

Für Inferenzausgaben unterstützt k-NN die – application/jsonund application/x-recordio-protobuf-Datenformate. Diese beiden Datenformate unterstützen auch einen Verbose-Ausgabemodus. Im ausführlichen Ausgabemodus API liefert der die Suchergebnisse mit dem Entfernungsvektor, sortiert vom kleinsten zum größten, und den entsprechenden Elementen im Labelvektor.

Für die Stapeltransformation unterstützt k-NN das application/jsonlines-Datenformat für die Ein- und Ausgabe. Die Eingabe lautet z. B.:

content-type: application/jsonlines {"features": [1.5, 16.0, 14.0, 23.0]} {"data": {"features": {"values": [1.5, 16.0, 14.0, 23.0]}}

Die Ausgabe lautet z. B.:

accept: application/jsonlines {"predicted_label": 0.0} {"predicted_label": 2.0}

Weitere Informationen zu den Ein- und Ausgabedateiformaten finden Sie unter Datenformate für k-NN-Trainingseingaben für das Training, k-NN-Anforderungs- und Antwortformate für Inferenz und k-NN-Beispiel-Notebooks.

k-NN-Beispiel-Notebooks

Ein Beispielnotizbuch, das den Algorithmus „ SageMaker k-Nearest Neighbor“ verwendet, um anhand von geologischen Daten und Daten von forstwirtschaftlichen Diensten die Art der Wildnisbedeckung vorherzusagen, finden Sie unter K-Nearest Neighbor Covertype.

Verwenden Sie eine Jupyter-Notebook-Instanz, um das Beispiel in auszuführen. SageMaker Informationen zum Erstellen und Öffnen einer Jupyter-Notebook-Instanz in finden Sie unter. SageMaker Amazon SageMaker Notebook-Instances Nachdem Sie eine Notebook-Instanz erstellt und geöffnet haben, wählen Sie den Tab SageMaker Beispiele aus, um eine Liste aller Beispiel-Notebooks zu sehen. SageMaker Suchen Sie nach K-Nearest Neighbor Notebooks im Abschnitt Einführung in Amazon-Algorithmen. Zum Öffnen eines Notebooks klicken Sie auf die Registerkarte Use (Verwenden) und wählen Sie Create copy (Kopie erstellen) aus.

EC2Instanzempfehlung für den k-NN-Algorithmus

Wir empfehlen eine Schulung auf einer CPU Instance (wie ml.m5.2xlarge) oder auf einer Instance. GPU Der k-NN-Algorithmus unterstützt die Instance-Familien P2, P3, G4dn und G5 für Training und Inferenz. GPU

Inferenzanfragen von haben CPUs im Allgemeinen eine geringere durchschnittliche Latenz als Anfragen von, GPUs da bei der Verwendung von Hardware eine Belastung der Kommunikation anfällt. CPU-to-GPU GPU GPUsIm Allgemeinen weisen sie jedoch bei größeren Batches einen höheren Durchsatz auf.