Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Configurer le Machine Learning sur Amazon OpenSearch Serverless
Machine Learning (apprentissage automatique)
Le Machine Learning (ML) fournit des fonctionnalités de ML sous la forme d'algorithmes ML et de modèles distants. Avec l'accès à ces modèles, vous pouvez exécuter plusieurs flux de travail d'IA tels que RAG ou la recherche sémantique. Le ML prend en charge l'expérimentation et le déploiement en production de cas d'utilisation de l'IA générative à l'aide des derniers modèles hébergés en externe que vous pouvez configurer à l'aide de connecteurs. Après avoir configuré un connecteur, vous devez le configurer sur un modèle, puis le déployer pour effectuer une prédiction.
Connecteurs
Les connecteurs facilitent l'accès aux modèles hébergés sur des plateformes ML tierces. Ils servent de passerelle entre votre OpenSearch cluster et un modèle distant. Pour plus d’informations, consultez la documentation de suivante :
-
Création de connecteurs pour des plateformes ML tierces
sur le site Web de OpenSearch documentation -
Important
-
Lorsque vous créez une politique de confiance,
ml.opensearchservice.amazonaws.com
ajoutez-la comme principe de OpenSearch service. -
Ignorez les étapes de la page Connecteurs qui indiquent comment configurer un domaine dans la politique.
-
Ajoutez l'
iam:PassRole
instruction à l'étape Configurer les autorisations. -
Ignorez l'étape Cartographier le rôle ML dans les OpenSearch tableaux de bord. La configuration du rôle principal n'est pas requise. Cela s'applique aux connecteurs pour Services AWS plateformes externes et aux connecteurs pour plateformes externes.
-
Dans votre demande SigV4 adressée au point de terminaison de collecte, définissez le nom du service sur au
aoss
lieu dees
.
-
Modèles
Un modèle est la fonctionnalité de base utilisée dans les différents flux de travail d'IA. Généralement, vous associez le connecteur à un modèle pour effectuer une prédiction à l'aide du connecteur. Une fois qu'un modèle est déployé, vous pouvez exécuter une prédiction. Pour plus d'informations, voir Enregistrer un modèle hébergé sur une plateforme tierce
Note
Les fonctionnalités du modèle ne sont pas toutes prises en charge sur OpenSearch Serverless, comme les modèles locaux. Pour de plus amples informations, veuillez consulter Machine Learning APIs et fonctionnalités non pris en charge.
Configuration des autorisations pour le Machine Learning
La section suivante décrit les politiques d'accès aux données de collecte requises pour le Machine Learning (ML). Remplacez le placeholder values
par vos informations spécifiques. Pour de plus amples informations, veuillez consulter Autorisations de stratégies prises en charge.
{ "Rules": [ { "Resource": [ "model/
collection_name
/*" ], "Permission": [ "aoss:DescribeMLResource", "aoss:CreateMLResource", "aoss:UpdateMLResource", "aoss:DeleteMLResource", "aoss:ExecuteMLResource" ], "ResourceType": "model" } ], "Principal": [ "arn:aws:iam::account_id
:role/role_name
" ], "Description": "ML full access policy forcollection_name
" }
-
AOSS:Describe MLResource — Accorde l'autorisation de rechercher et d'interroger des connecteurs, des modèles et des groupes de modèles.
-
AOSS:Create MLResource — Accorde l'autorisation de créer des connecteurs, des modèles et des groupes de modèles.
-
AOSS:Update MLResource — Accorde l'autorisation de mettre à jour les connecteurs, les modèles et les groupes de modèles.
-
aoss:Delete MLResource — Accorde l'autorisation de supprimer des connecteurs, des modèles et des groupes de modèles.
-
AOSS:Execute MLResource — Accorde l'autorisation d'effectuer des prédictions sur les modèles.