Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
AWS Esempio di caso d'uso di Event Fork Pipelines
Lo scenario seguente descrive un'applicazione di e-commerce senza server e basata sugli eventi che utilizza AWS Event Fork Pipelines. È possibile utilizzare questo esempio di applicazione di e-commerce
Questa applicazione di e-commerce riceve gli ordini dagli acquirenti tramite un servizio ospitato da Gateway e supportato dalla funzione. RESTful API API AWS Lambda CheckoutApiBackendFunction
Questa funzione pubblica tutti gli ordini ricevuti su un SNS argomento Amazon denominato CheckoutEventsTopic
che, a sua volta, distribuisce gli ordini a quattro diverse pipeline.
La prima è la normale pipeline di elaborazione del checkout progettata e implementata dal proprietario dell'applicazione di E-Commerce. Questa pipeline include la SQS coda Amazon CheckoutQueue
che memorizza nel buffer tutti gli ordini ricevuti, una AWS Lambda funzione denominata CheckoutFunction
che esegue il polling della coda per elaborare questi ordini e la tabella DynamoDB che salva in modo sicuro tutti gli ordini effettuati. CheckoutTable
Applicazione di Event Fork AWS Pipelines
La logica di business principale è gestita dai componenti dell'applicazione di E-Commerce, il cui proprietario deve comunque tenere conto anche dei seguenti fattori:
-
Conformità—backup protetti e compressi crittografati a riposo e sanificazione delle informazioni sensibili
-
Resilienza—riproduzione degli ordini più recenti in caso di interruzione del processo di evasione
-
Searchability—esecuzione di analisi e generazione di metriche sugli ordini effettuati
Invece di implementare questa logica di elaborazione degli eventi, il proprietario dell'applicazione può sottoscrivere AWS Event Fork Pipelines all'argomento Amazon CheckoutEventsTopic
SNS
-
La pipeline di archiviazione di eventi e di backupè configurato per trasformare i dati per rimuovere i dati della carta di credito, memorizzarli nel buffer per 60 secondi, comprimerli e crittografarli utilizzando la chiave gestita dal cliente predefinita per Amazon S3. GZIP Questa chiave è gestita AWS e alimentata da (). AWS Key Management Service AWS KMS
Per ulteriori informazioni, consulta Scegli Amazon S3 per la tua destinazione, Amazon Data Firehose Data Transformation e Configure Settings nella Amazon Data Firehose Developer Guide.
-
La pipeline di ricerca di eventi e di analisi dei dati è configurata con un valore di 30 secondi per la durata dei nuovi tentativi di indice, un bucket per lo storage di ordini non indicizzati nel dominio di ricerca e una policy di filtro per limitare il set degli ordini indicizzati.
Per ulteriori informazioni, consulta Scegli il OpenSearch servizio per la tua destinazione nella Amazon Data Firehose Developer Guide.
-
Pipeline di riproduzione eventiè configurato con la parte Amazon SQS queue della normale pipeline di elaborazione degli ordini progettata e implementata dal proprietario dell'applicazione di e-commerce.
Per ulteriori informazioni, consulta Queue Name e URL nella Amazon Simple Queue Service Developer Guide.
La seguente politica di JSON filtro è impostata nella configurazione per Event Search and Analytics Pipeline. che trova solo ordini in entrata il cui importo totale sia di 100 dollari o più. Per ulteriori informazioni, consulta Filtraggio SNS dei messaggi Amazon.
{
"amount": [{ "numeric": [ ">=", 100 ] }]
}
Utilizzando il pattern AWS Event Fork Pipelines, il proprietario dell'applicazione di e-commerce può evitare il sovraccarico di sviluppo che spesso deriva dalla logica di codifica indifferenziata per la gestione degli eventi. Invece, può implementare AWS Event Fork Pipelines direttamente dal suo interno. AWS Serverless Application Repository Account AWS