Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Utilizzo dei blueprint per creare una pipeline
Invece di creare una definizione di pipeline partendo da zero, è possibile utilizzare i blueprint di configurazione, che sono YAML modelli preconfigurati per scenari di ingestione comuni come Trace Analytics o i log di Apache. I blueprint di configurazione consentono di effettuare facilmente il provisioning delle pipeline senza dover creare una configurazione da zero.
Per utilizzare un blueprint di pipeline
-
Accedi alla console di Amazon OpenSearch Service da https://console.aws.amazon.com/aos/casa
. -
Scegli Pipelines nel riquadro di navigazione a sinistra e scegli Crea pipeline.
-
Seleziona un blueprint dall'elenco dei casi d'uso, quindi scegli Seleziona blueprint. La configurazione della pipeline viene compilata con una pipeline secondaria per il caso d'uso selezionato.
-
Esamina il testo commentato che ti guida nella configurazione del blueprint.
Importante
Il blueprint della pipeline non è valido così com'è. È necessario apportare alcune modifiche, ad esempio fornire il ruolo Regione AWS e il ruolo da utilizzare per l'autenticazione, altrimenti la ARN convalida della pipeline avrà esito negativo.
Per ottenere un elenco di tutti i progetti disponibili utilizzando il AWS CLI, invia una richiesta. list-pipeline-blueprints
aws osis list-pipeline-blueprints
La richiesta restituisce un elenco di tutti i blueprint disponibili.
Per ottenere informazioni più dettagliate su un progetto specifico, usa il get-pipeline-blueprintcomando:
aws osis get-pipeline-blueprint --blueprint-name
AWS-ApacheLogPipeline
Questa richiesta restituisce il contenuto del blueprint della pipeline di log di Apache:
{ "Blueprint":{ "PipelineConfigurationBody":"###\n # Limitations: https://docs.aws.amazon.com/opensearch-service/latest/ingestion/ingestion.html#ingestion-limitations\n###\n###\n # apache-log-pipeline:\n # This pipeline receives logs via http (e.g. FluentBit), extracts important values from the logs by matching\n # the value in the 'log' key against the grok common Apache log pattern. The grokked logs are then sent\n # to OpenSearch to an index named 'logs'\n###\n\nversion: \"2\"\napache-log-pipeline:\n source:\n http:\n # Provide the path for ingestion. ${pipelineName} will be replaced with pipeline name configured for this pipeline.\n # In this case it would be \"/apache-log-pipeline/logs\". This will be the FluentBit output URI value.\n path: \"/${pipelineName}/logs\"\n processor:\n - grok:\n match:\n log: [ \"%{COMMONAPACHELOG_DATATYPED}\" ]\n sink:\n - opensearch:\n # Provide an AWS OpenSearch Service domain endpoint\n # hosts: [ \"https://search-mydomain-1a2a3a4a5a6a7a8a9a0a9a8a7a.us-east-1.es.amazonaws.com\" ]\n aws:\n # Provide a Role ARN with access to the domain. This role should have a trust relationship with osis-pipelines.amazonaws.com\n # sts_role_arn: \"arn:aws:iam::123456789012:role/Example-Role\"\n # Provide the region of the domain.\n # region: \"us-east-1\"\n # Enable the 'serverless' flag if the sink is an Amazon OpenSearch Serverless collection\n # serverless: true\n index: \"logs\"\n # Enable the S3 DLQ to capture any failed requests in an S3 bucket\n # dlq:\n # s3:\n # Provide an S3 bucket\n # bucket: \"your-dlq-bucket-name\"\n # Provide a key path prefix for the failed requests\n # key_path_prefix: \"${pipelineName}/logs/dlq\"\n # Provide the region of the bucket.\n # region: \"us-east-1\"\n # Provide a Role ARN with access to the bucket. This role should have a trust relationship with osis-pipelines.amazonaws.com\n # sts_role_arn: \"arn:aws:iam::123456789012:role/Example-Role\"\n", "BlueprintName":"AWS-ApacheLogPipeline" } }
Per ottenere informazioni sui progetti di pipeline utilizzando OpenSearch IngestionAPI, utilizzate le operazioni and. ListPipelineBlueprintsGetPipelineBlueprint