Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Machine Learning auf Amazon OpenSearch Serverless konfigurieren
Machine Learning
Machine Learning (ML) bietet ML-Funktionen in Form von ML-Algorithmen und Remote-Modellen. Mit Zugriff auf diese Modelle können Sie verschiedene KI-Workflows wie RAG oder semantische Suche ausführen. ML unterstützt das Experimentieren und den produktiven Einsatz generativer KI-Anwendungsfälle unter Verwendung der neuesten extern gehosteten Modelle, die Sie mit Konnektoren konfigurieren können. Nachdem Sie einen Konnektor konfiguriert haben, müssen Sie ihn für ein Modell konfigurieren und ihn dann bereitstellen, um Vorhersagen durchzuführen.
Konnektoren
Konnektoren erleichtern den Zugriff auf Modelle, die auf ML-Plattformen von Drittanbietern gehostet werden. Sie dienen als Gateway zwischen Ihrem OpenSearch Cluster und einem Remote-Modell. Weitere Informationen finden Sie in der folgenden -Dokumentation:
-
Erstellung von Konnektoren für ML-Plattformen von Drittanbietern
auf der OpenSearch Dokumentationswebsite -
Wichtig
-
Wenn Sie eine Vertrauensrichtlinie erstellen, fügen Sie
ml.opensearchservice.amazonaws.com
sie als OpenSearch Serviceprinzip hinzu. -
Überspringen Sie die Schritte auf der Connectors-Seite, auf der die Konfiguration einer Domäne in der Richtlinie beschrieben wird.
-
Fügen Sie die
iam:PassRole
Anweisung im Schritt Berechtigungen konfigurieren hinzu. -
Überspringen Sie den Schritt ML-Rolle zuordnen in OpenSearch Dashboards. Die Konfiguration der Backend-Rolle ist nicht erforderlich. Dies gilt für Konnektoren für AWS-Services und für Konnektoren für externe Plattformen.
-
Stellen Sie in Ihrer SigV4-Anfrage an den Sammlungsendpunkt den Dienstnamen auf
aoss
stattes
auf ein.
-
Modelle
Ein Modell ist die Kernfunktionalität, die in verschiedenen KI-Workflows verwendet wird. Im Allgemeinen verknüpfen Sie den Konnektor mit einem Modell, um mithilfe des Konnektors Vorhersagen zu treffen. Sobald sich ein Modell im Bereitstellungsstatus befindet, können Sie eine Vorhersage ausführen. Weitere Informationen finden Sie auf der OpenSearch Dokumentationswebsite unter Registrieren eines Modells, das auf einer Plattform eines Drittanbieters gehostet wird
Anmerkung
Nicht alle Modellfunktionen werden auf OpenSearch Serverless unterstützt, z. B. lokale Modelle. Weitere Informationen finden Sie unter Machine Learning APIs und Funktionen werden nicht unterstützt.
Berechtigungen für Machine Learning konfigurieren
Im folgenden Abschnitt werden die Zugriffsrichtlinien für Sammlungsdaten beschrieben, die für Machine Learning (ML) erforderlich sind. Ersetzen Sie die placeholder values
durch Ihre spezifischen Informationen. Weitere Informationen finden Sie unter Unterstützte Richtlinienberechtigungen.
{ "Rules": [ { "Resource": [ "model/
collection_name
/*" ], "Permission": [ "aoss:DescribeMLResource", "aoss:CreateMLResource", "aoss:UpdateMLResource", "aoss:DeleteMLResource", "aoss:ExecuteMLResource" ], "ResourceType": "model" } ], "Principal": [ "arn:aws:iam::account_id
:role/role_name
" ], "Description": "ML full access policy forcollection_name
" }
-
aoss:Describe MLResource — Erteilt die Berechtigung zum Suchen und Abfragen von Konnektoren, Modellen und Modellgruppen.
-
aoss:Create MLResource — Erteilt die Berechtigung zum Erstellen von Konnektoren, Modellen und Modellgruppen.
-
aoss:Update MLResource — Erteilt die Berechtigung zum Aktualisieren von Konnektoren, Modellen und Modellgruppen.
-
aoss:Delete MLResource — Erteilt die Berechtigung zum Löschen von Konnektoren, Modellen und Modellgruppen.
-
aoss:Execute MLResource — Erteilt die Erlaubnis, Vorhersagen für Modelle durchzuführen.