Seleziona le tue preferenze relative ai cookie

Utilizziamo cookie essenziali e strumenti simili necessari per fornire il nostro sito e i nostri servizi. Utilizziamo i cookie prestazionali per raccogliere statistiche anonime in modo da poter capire come i clienti utilizzano il nostro sito e apportare miglioramenti. I cookie essenziali non possono essere disattivati, ma puoi fare clic su \"Personalizza\" o \"Rifiuta\" per rifiutare i cookie prestazionali.

Se sei d'accordo, AWS e le terze parti approvate utilizzeranno i cookie anche per fornire utili funzionalità del sito, ricordare le tue preferenze e visualizzare contenuti pertinenti, inclusa la pubblicità pertinente. Per continuare senza accettare questi cookie, fai clic su \"Continua\" o \"Rifiuta\". Per effettuare scelte più dettagliate o saperne di più, fai clic su \"Personalizza\".

Generazione di previsioni basate sui dati dei grafi in evoluzione

Modalità Focus
Generazione di previsioni basate sui dati dei grafi in evoluzione - Amazon Neptune

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Con un grafo in continua evoluzione, potrebbe essere necessario creare periodicamente nuove previsioni in batch utilizzando dati aggiornati. L'esecuzione di query su previsioni precalcolate (inferenza trasduttiva) può essere significativamente più veloce rispetto alla generazione immediata di nuove previsioni basate sui dati più recenti (inferenza induttiva). Entrambi gli approcci sono validi, a seconda della rapidità con cui cambiano i dati e dei requisiti in termini di prestazioni.

Differenza tra inferenza induttiva e trasduttiva

Quando esegue l'inferenza trasduttiva, Neptune cerca e restituisce previsioni precalcolate al momento dell'addestramento.

Quando esegue l'inferenza induttiva, Neptune costruisce il sottografo pertinente e ne recupera le proprietà. Il modello GNN DGL applica quindi l'elaborazione dei dati e la valutazione del modello in tempo reale.

L'inferenza induttiva può quindi generare previsioni che coinvolgono nodi e archi che non erano presenti al momento dell'addestramento e che riflettono lo stato attuale del grafo. Ciò determina, tuttavia, una maggiore latenza.

Se il grafo è dinamico, è consigliabile utilizzare l'inferenza induttiva per essere sicuri di tenere conto dei dati più recenti, ma se il grafo è statico, l'inferenza trasduttiva è più veloce ed efficiente.

Per impostazione predefinita, l'inferenza induttiva è disabilitata. È possibile abilitarla per eseguire una query utilizzando il predicato Neptune#ml.inductiveInference Gremlin nella query come indicato di seguito:

.with( "Neptune#ml.inductiveInference")

In questa pagina

PrivacyCondizioni del sitoPreferenze cookie
© 2025, Amazon Web Services, Inc. o società affiliate. Tutti i diritti riservati.