Selecione suas preferências de cookies

Usamos cookies essenciais e ferramentas semelhantes que são necessárias para fornecer nosso site e serviços. Usamos cookies de desempenho para coletar estatísticas anônimas, para que possamos entender como os clientes usam nosso site e fazer as devidas melhorias. Cookies essenciais não podem ser desativados, mas você pode clicar em “Personalizar” ou “Recusar” para recusar cookies de desempenho.

Se você concordar, a AWS e terceiros aprovados também usarão cookies para fornecer recursos úteis do site, lembrar suas preferências e exibir conteúdo relevante, incluindo publicidade relevante. Para aceitar ou recusar todos os cookies não essenciais, clique em “Aceitar” ou “Recusar”. Para fazer escolhas mais detalhadas, clique em “Personalizar”.

Usando um pipeline OpenSearch de ingestão com o Amazon Security Lake como coletor

Modo de foco
Usando um pipeline OpenSearch de ingestão com o Amazon Security Lake como coletor - OpenSearch Serviço Amazon

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Use o plug-in de coletor do Amazon S3 na OpenSearch Ingestão para enviar dados de qualquer fonte compatível para o Amazon Security Lake. O Security Lake coleta e armazena dados de segurança de AWS ambientes locais e provedores de SaaS em um data lake dedicado.

Para configurar seu pipeline para gravar dados de log no Security Lake, use o esquema pré-configurado de registros de tráfego do Firewall. O esquema inclui uma configuração padrão para recuperar registros de segurança brutos ou outros dados armazenados em um bucket do Amazon S3, processar os registros e normalizá-los. Em seguida, ele mapeia os dados para o Open Cybersecurity Schema Framework (OCSF) e envia os dados transformados em conformidade com o OCSF para o Security Lake.

O pipeline tem os seguintes atributos de metadados:

  • bucket_name: o nome do bucket Amazon S3 criado pelo Security Lake para armazenar dados de segurança.

  • path_prefix: o nome da fonte personalizada definido na política de função do Security Lake IAM.

  • region: Região da AWS Onde está localizado o bucket do Security Lake S3.

  • accountID: O Conta da AWS ID no qual o Security Lake está ativado.

  • sts_role_arn: o ARN da função do IAM destinada ao uso com o Security Lake.

Pré-requisitos

Antes de criar um pipeline para enviar dados para o Security Lake, execute as seguintes etapas:

  • Habilitar e configurar o Amazon Security Lake: configure o Amazon Security Lake para centralizar dados de segurança de várias fontes. Para obter instruções, consulte Habilitando o Security Lake usando o console.

    Ao selecionar uma fonte, escolha Ingerir AWS fontes específicas e selecione uma ou mais fontes de registro e eventos que você deseja ingerir.

  • Configurar permissões: configure a função do pipeline com as permissões necessárias para gravar dados no Security Lake. Para obter mais informações, consulte Função do pipeline.

Criar o pipeline

Use o esquema pré-configurado do Security Lake para criar o pipeline. Para obter mais informações, consulte Usando blueprints para criar um pipeline.

PrivacidadeTermos do sitePreferências de cookies
© 2025, Amazon Web Services, Inc. ou suas afiliadas. Todos os direitos reservados.