Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Erstellen von Prognosen auf der Grundlage sich entwickelnder Graphdaten
Bei einem sich ständig ändernden Graphen möchten Sie möglicherweise regelmäßig neue Stapelprognosen auf der Grundlage aktueller Daten erstellen. Das Abfragen vorab berechneter Prognosen (transduktive Inferenz) kann erheblich schneller sein als die spontane Generierung neuer Prognosen auf der Grundlage der allerneuesten Daten (induktive Inferenz). Beide Ansätze haben ihre Berechtigung, je nachdem, wie schnell sich Ihre Daten ändern und welche Leistungsanforderungen Sie haben.
Der Unterschied zwischen induktiver und transduktiver Inferenz
Bei der Durchführung transduktiver Inferenz sucht Neptune nach Prognosen, die zum Zeitpunkt des Trainings vorberechnet wurden, und gibt sie zurück.
Bei der Durchführung induktiver Inferenz konstruiert Neptune den entsprechenden Untergraphen und ruft seine Eigenschaften ab. Das DGL GNN Modell wendet dann Datenverarbeitung und Modellevaluierung in Echtzeit an.
Durch induktive Inferenz können daher Prognosen zu Knoten und Edges generiert werden, die zum Zeitpunkt des Trainings nicht vorhanden waren und die den aktuellen Zustand des Graphen widerspiegeln. Damit geht jedoch eine höhere Latenz einher.
Wenn Ihr Graph dynamisch ist, sollten Sie die induktive Inferenz verwenden, um sicherzugehen, dass die neuesten Daten berücksichtigt werden. Wenn Ihr Graph jedoch statisch ist, ist die transduktive Inferenz schneller und effizienter.
Die induktive Inferenz ist standardmäßig deaktiviert. Sie können sie für eine Abfrage aktivieren, indem Sie das Gremlin-Prädikat Neptune #ml. inductiveInference in der Abfrage wie folgt verwenden:
.with( "Neptune#ml.inductiveInference")