Présentation de l'utilisation de la fonction Neptune alimentés par l'apprentissage automatique - Amazon Neptune

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Présentation de l'utilisation de la fonction Neptune alimentés par l'apprentissage automatique

Démarrage du flux de travail pour utiliser Neptune ML

L'utilisation de la fonctionnalité Neptune ML dans Amazon Neptune implique généralement les cinq étapes suivantes pour commencer :

Schéma de flux de travail Neptune ML
  1. Exportation et configuration des données— L'étape d'exportation des données utilise le service Neptune-Export ou leneptune-exportoutil de ligne de instruction pour exporter des données depuis Neptune vers Amazon Simple Storage Service (Amazon S3) au format CSV. Un fichier de configuration nommétraining-data-configuration.jsonest généré automatiquement en même temps, ce qui indique comment les données exportées peuvent être chargées dans un graphe pouvant être entraîné.

  2. Prétraitement des données— Au cours de cette étape, le jeu de données exporté est prétraité à l'aide de techniques standard pour le préparer à l'apprentissage du modèle. La normalisation des entités peut être effectuée pour les données numériques et les entités textuelles peuvent être codées à l'aide deword2vec. À la fin de cette étape, un graphe DGL (Deep Graph library) est généré à partir du jeu de données exporté pour l'étape d'apprentissage du modèle à utiliser.

    Cette étape est implémentée à l'aide d'un SageMaker traitement de votre compte, et les données résultantes sont stockées dans un emplacement Amazon S3 que vous avez spécifié.

  3. Entraînement de modèles— L'étape d'apprentissage du modèle entraîne le modèle d'apprentissage automatique qui sera utilisé pour les prévisions.

    La formation au modèle se fait en deux étapes :

    • La première étape utilise un SageMaker pour générer un jeu de configuration de stratégie d'entraînement au modèle qui spécifie le type de modèle et les plages d'hyperparamètres du modèle qui seront utilisés pour l'entraînement du modèle.

    • La deuxième étape utilise ensuite un SageMaker tâche de réglage du modèle pour essayer différentes configurations d'hyperparamètres et sélectionner la tâche d'entraînement qui a produit le modèle le plus performant. La tâche de réglage exécute un nombre prédéfini d'essais de travaux de formation sur le modèle sur les données traitées. À la fin de cette étape, les paramètres du modèle entraîné de la meilleure tâche d'entraînement sont utilisés pour générer des artefacts de modèle à des fins d'inférence.

  4. Créer un point de terminaison d'inférence dans Amazon SageMaker— Le point final de l'inférence est un SageMaker instance de point de terminaison qui est lancée avec les artefacts de modèle produits par la meilleure tâche de formation. Chaque modèle est lié à un seul point final. Le point de terminaison est capable d'accepter les demandes entrantes de la base de données de graphes et de renvoyer les prédictions du modèle pour les entrées dans les demandes. Après avoir créé le point de terminaison, il reste actif jusqu'à ce que vous le supprimiez.

  5. Interrogation du modèle de machine learning à l'aide de Gremlin— Vous pouvez utiliser des extensions du langage de requête Gremlin pour interroger des prédictions à partir du point de terminaison d'inférence.

Note

LeÉtabli Neptunecontient une magie de ligne et une magie cellulaire qui peuvent vous faire gagner beaucoup de temps dans la gestion de ces étapes, à savoir :

Flux de travail pour gérer l'évolution des données graphiques

Avec un graphique en constante évolution, vous devrez peut-être mettre à jour fréquemment les prévisions d'apprentissage automatique en utilisant les données les plus récentes. Bien que vous puissiez le faire simplement en relançant les étapes une à quatre (à partir deExportation et configuration des donnéespourCréer un point de terminaison d'inférence dans Amazon SageMaker, Neptune ML propose des méthodes plus simples pour mettre à jour vos prévisions d'apprentissage automatique à l'aide de nouvelles données. L'un est un flux de travail basé sur un modèle incrémental :

Workflow d'inférence de modèle incrémental

Dans ce flux de travail, vous mettez à jour les prédictions d'apprentissage automatique sans réentraîner le modèle ML.

Note

Vous ne pouvez le faire que lorsque les données du graphe ont été mises à jour avec de nouveaux nœuds et/ou tronçons. Cela ne fonctionnera pas actuellement lorsque les nœuds seront supprimés.

  1. Exportation et configuration des données— Cette étape est identique à celle du flux de travail principal.

  2. Prétraitement incrémentiel des données— Cette étape est similaire à l'étape de prétraitement des données dans le flux de travail principal, mais utilise la même configuration de traitement que celle utilisée précédemment, qui correspond à un modèle entraîné spécifique.

  3. Transformation du modèle— Au lieu d'une étape d'apprentissage du modèle, cette étape de transformation du modèle prend le modèle entraîné du flux de travail principal et des résultats de l'étape de prétraitement incrémentiel des données, et génère de nouveaux artefacts de modèle à utiliser pour l'inférence. L'étape de transformation du modèle lance un SageMaker pour effectuer le calcul qui génère les artefacts de modèle mis à jour.

  4. Mettre Amazon à jour SageMaker point final d'inférence— Cette étape met à jour un point de terminaison d'inférence existant avec les nouveaux artefacts de modèle générés par l'étape de transformation du modèle. Vous pouvez également créer un nouveau point de terminaison d'inférence avec les nouveaux artefacts du modèle.

Réentraînement du modèle avec un démarrage à chaud

À l'aide de ce flux de travail, vous pouvez entraîner et déployer un nouveau modèle ML pour établir des prévisions à l'aide des données de graphe incrémentielles, mais partir d'un modèle existant généré à l'aide du flux de travail principal :

  1. Exportation et configuration des données— Cette étape est identique à celle du flux de travail principal.

  2. Prétraitement incrémentiel des données— Cette étape est identique à celle du flux de travail d'inférence de modèle incrémentiel. Les nouvelles données graphiques doivent être traitées avec la même méthode de traitement que celle utilisée précédemment pour l'entraînement des modèles.

  3. Entraînement de modèles avec un démarrage à chaud— L'entraînement au modèle est similaire à ce qui se passe dans le flux de travail principal, mais vous pouvez accélérer la recherche d'hyperparamètres du modèle en exploitant les informations de la tâche d'entraînement précédente sur le modèle.

  4. Mettre Amazon à jour SageMaker point final d'inférence— Cette étape est identique à celle du flux de travail d'inférence de modèle incrémentiel.

Flux de travail pour les modèles personnalisés dans Neptune ML

Neptune ML vous permet de mettre en œuvre, de former et de déployer vos propres modèles personnalisés pour toutes les tâches prises en charge par Neptune ML. Le flux de travail pour le développement et le déploiement d'un modèle personnalisé est essentiellement le même que pour les modèles intégrés, avec quelques différences, comme expliqué dansFlux de travail modèle personnalisée.