As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Práticas recomendadas: aproveitar ao máximo o Neptune
Veja algumas recomendações gerais para trabalhar com o Amazon Neptune. Use essas informações como referência para localizar rapidamente as recomendações para o uso do Amazon Neptune e maximizar o desempenho.
Sumário
- Diretrizes operacionais básicas do Amazon Neptune
- Práticas recomendadas de segurança para o Amazon Neptune
- Evitar classes de instância diferentes em um cluster
- Evitar reinicializações repetidas durante o carregamento em massa
- Ative o OSGP Índice se você tiver um grande número de predicados
- Evitar transações de longa execução quando possível
- Práticas recomendadas para o uso de métricas do Neptune
- Práticas recomendadas para ajustar as consultas do Neptune
- Balanceamento de carga entre réplicas de leitura
- Carregar com maior rapidez usando uma instância temporária maior
- Redimensione a instância de gravador realizando o failover para uma réplica de leitura
- Tentar fazer upload novamente após um erro de interrupção de tarefa de pré-busca de dados
- Práticas recomendadas gerais para usar o Gremlin com o Neptune
- Estruture as consultas upsert para aproveitar as vantagens do mecanismo DFE
- Testar o código do Gremlin no contexto em que você o implantará
- Criação de gravações eficientes com multi-thread do Gremlin
- Redução de registros com o Creation Time Property
- Ao usar o método datetime( ) para o Groovy Time Data
- Usando data e hora nativas para dados de GLV hora
- Práticas recomendadas para usar o cliente Java do Gremlin com o Neptune
- Use a versão mais recente compatível do cliente Apache TinkerPop Java
- Reutilizar o objeto de cliente entre vários threads
- Criar objetos separados do cliente Java do Gremlin para endpoints de leitura e gravação
- Adicionar vários endpoints de réplica de leitura a um grupo conexão Java do Gremlin
- Fechar o cliente para evitar o limite de conexões
- Criar uma conexão após o failover
- Definir maxInProcessPerConnection e maxSimultaneousUsagePerConnection como o mesmo valor
- Enviar consultas ao servidor como bytecode em vez de strings
- Sempre consuma completamente o ResultSet ou Iterator retornado por uma consulta
- Adicionar em massa vértices e bordas em lotes
- Desativar o DNS armazenamento em cache na Java Virtual Machine
- Opcionalmente, definir tempos limite em um nível por consulta
- Solução de problemas de java.util.concurrent.TimeoutException
- Práticas recomendadas de Neptune: usar e aparafusar openCypher
- Criar uma conexão após o failover
- Tratamento de conexões para aplicações de longa duração
- Manipulação de conexão para AWS Lambda
- Preferir direcionar para bordas bidirecionais nas consultas
- O Neptune não é compatível com várias consultas simultâneas em uma transação.
- Fechar objetos de driver ao concluir
- Usar modos de transação explícitos para leitura e gravação
- Lógica de novas tentativas para exceções
- Defina várias propriedades ao mesmo tempo usando uma única SET cláusula
- Usar consultas parametrizadas
- Use mapas achatados em vez de mapas aninhados na cláusula UNWIND
- Coloque nós mais restritivos no lado esquerdo nas expressões Variable-Length Path () VLP
- Evite verificações redundantes de rótulos de nós usando nomes de relacionamento granulares
- Especifique etiquetas de borda sempre que possível
- Evite usar a WITH cláusula quando possível
- Coloque filtros restritivos o mais cedo possível na consulta
- Verifique explicitamente se as propriedades existem
- Não use o caminho nomeado (a menos que seja necessário)
- Evite COLLECT (DISTINCT())
- Prefira a função de propriedades em vez da pesquisa de propriedades individuais ao recuperar todos os valores da propriedade
- Execute cálculos estáticos fora da consulta
- Entradas em lote usando declarações individuais UNWIND em vez de
- Prefiro usar o personalizado IDs para nó/relacionamento
- Evite fazer cálculos de ~id na consulta
- Melhores práticas de Neptune usando SPARQL