As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
AWS Exemplo de caso de uso do Event Fork Pipelines
O cenário a seguir descreve um aplicativo de comércio eletrônico sem servidor e orientado por eventos que usa AWS o Event Fork Pipelines. Você pode usar esse exemplo de aplicativo de comércio eletrônico

Esse aplicativo de comércio eletrônico recebe pedidos de compradores por meio de uma RESTful API hospedada pelo API Gateway e apoiada pela AWS Lambda funçãoCheckoutApiBackendFunction
. Essa função publica todos os pedidos recebidos em um tópico do Amazon SNS chamado CheckoutEventsTopic
que, por sua vez, envia os pedidos para quatro pipelines diferentes.
O primeiro pipeline é o pipeline de processamento de checkout usual projetado e implementado pelo proprietário do aplicativo de comércio eletrônico. Esse pipeline tem a fila do Amazon SQS CheckoutQueue
que armazena em buffer todos os pedidos recebidos, uma AWS Lambda função chamada CheckoutFunction
que pesquisa a fila para processar esses pedidos e a tabela do DynamoDB que salva com segurança todos os pedidos feitos. CheckoutTable
Aplicação de AWS tubulações Event Fork
Os componentes do aplicativo de comércio eletrônico processam a lógica de negócios central. No entanto, o proprietário do aplicativo de comércio eletrônico também precisa abordar o seguinte:
-
Conformidade: backups seguros e compactados, criptografados em repouso e limpeza de informações confidenciais
-
Resiliência: repetição dos pedidos mais recentes em caso de interrupção do processo de atendimento
-
Capacidade de pesquisa: execução de análise e geração de métricas nos pedidos realizados
Em vez de implementar essa lógica de processamento de eventos, o proprietário do aplicativo pode inscrever o AWS Event Fork Pipelines no tópico do Amazon CheckoutEventsTopic
SNS
-
O O pipeline de armazenamento e backup de eventos é configurado com o intuito de transformar dados para remover detalhes de cartões de crédito, armazenar os dados em buffer durante 60 segundos, compactá-los usando GZIP e criptografá-los usando a chave mestra de cliente (CMK) padrão do Amazon S3. Essa chave é gerenciada AWS e alimentada pelo AWS Key Management Service (AWS KMS).
Para obter mais informações, consulte Escolher o Amazon S3 para seu destino, Transformação de dados do Amazon Data Firehose e Ajustar configurações no Guia do desenvolvedor do Amazon Data Firehose.
-
O O pipeline de pesquisa e análise de eventos é configurado com uma duração de nova tentativa do índice de 30 segundos, um bucket para armazenar os pedidos que não são indexados no domínio de pesquisa e uma política de filtro para restringir o conjunto de pedidos indexados.
Para obter mais informações, consulte Escolha o OpenSearch serviço para seu destino no Guia do desenvolvedor do Amazon Data Firehose.
-
O O pipeline de reprodução de eventos é configurado com a parte da fila do Amazon SQS do pipeline de processamento de pedidos usual projetado e implementado pela proprietária da aplicação de comércio eletrônico.
Para obter mais informações, consulte Queue Name and URL (“Nome e URL da fila”) no Guia do desenvolvedor do Amazon Simple Queue Service.
A seguinte política de filtro JSON é definida na configuração do pipeline de pesquisa e análise de eventos. Ela corresponde apenas aos pedidos de entrada em que a quantidade total for de 100 USD ou superior. Para obter mais informações, consulte Filtragem de mensagens do Amazon SNS.
{
"amount": [{ "numeric": [ ">=", 100 ] }]
}
Usando o padrão AWS Event Fork Pipelines, o proprietário do aplicativo de comércio eletrônico pode evitar a sobrecarga de desenvolvimento que geralmente segue a lógica indiferenciadora de codificação para tratamento de eventos. Em vez disso, ela pode implantar o AWS Event Fork Pipelines diretamente de AWS Serverless Application Repository dentro dela. Conta da AWS