Selecione suas preferências de cookies

Usamos cookies essenciais e ferramentas semelhantes que são necessárias para fornecer nosso site e serviços. Usamos cookies de desempenho para coletar estatísticas anônimas, para que possamos entender como os clientes usam nosso site e fazer as devidas melhorias. Cookies essenciais não podem ser desativados, mas você pode clicar em “Personalizar” ou “Recusar” para recusar cookies de desempenho.

Se você concordar, a AWS e terceiros aprovados também usarão cookies para fornecer recursos úteis do site, lembrar suas preferências e exibir conteúdo relevante, incluindo publicidade relevante. Para aceitar ou recusar todos os cookies não essenciais, clique em “Aceitar” ou “Recusar”. Para fazer escolhas mais detalhadas, clique em “Personalizar”.

Executar contêineres acelerados por GPU (Linux no EC2)

Modo de foco
Executar contêineres acelerados por GPU (Linux no EC2) - Amazon EKS

Ajudar a melhorar esta página

Quer contribuir para este guia do usuário? Escolha o link Editar esta página no GitHub, disponível no painel direito de cada página. Suas contribuições ajudarão a tornar nosso guia do usuário melhor para todos.

Ajudar a melhorar esta página

Quer contribuir para este guia do usuário? Escolha o link Editar esta página no GitHub, disponível no painel direito de cada página. Suas contribuições ajudarão a tornar nosso guia do usuário melhor para todos.

As AMIs do Amazon Linux otimizadas e aceleradas para o Amazon EKS são desenvolvidas nas AMIs do Amazon Linux otimizadas para o Amazon EKS padrão. Para obter esses detalhes sobre essas AMIs, consulte AMIs do Amazon Linux aceleradas e otimizadas para Amazon EKS. O texto a seguir descreve como habilitar workloads baseadas no AWS Neuron.

Para habilitar workloads baseadas no AWS Neuron (acelerador de ML)

Para obter detalhes sobre workloads de treinamento e inferência usando o Neuron no Amazon EKS, consulte as seguintes referências:

O procedimento a seguir descreve como executar uma workload em uma instância baseada em GPU com AMIs aceleradas otimizadas para o Amazon EKS.

  1. Depois que os nós de GPU entrarem no cluster, você deverá aplicar o plug-in de dispositivo NVIDIA para Kubernetes como DaemonSet no cluster. Substitua vX.X.X pela versão desejada do NVIDIA/k8s-device-plugin antes de executar o seguinte comando.

    kubectl apply -f https://raw.githubusercontent.com/NVIDIA/k8s-device-plugin/vX.X.X/deployments/static/nvidia-device-plugin.yml
  2. Você pode verificar se os nós têm GPUs alocáveis com o seguinte comando:

    kubectl get nodes "-o=custom-columns=NAME:.metadata.name,GPU:.status.allocatable.nvidia\.com/gpu"
  3. Crie um arquivo denominado nvidia-smi.yaml com o seguinte conteúdo: Substitua tag pela etiqueta desejada para nvidia/cuda. Esse manifesto inicia um contêiner NVIDIA CUDA que executa nvidia-smi em um nó.

    apiVersion: v1 kind: Pod metadata: name: nvidia-smi spec: restartPolicy: OnFailure containers: - name: nvidia-smi image: nvidia/cuda:tag args: - "nvidia-smi" resources: limits: nvidia.com/gpu: 1
  4. Aplique o manifesto com o comando a seguir.

    kubectl apply -f nvidia-smi.yaml
  5. Após a execução do Pod ser concluída, visualize os logs com o comando a seguir.

    kubectl logs nvidia-smi

    Veja um exemplo de saída abaixo.

    Mon Aug 6 20:23:31 20XX +-----------------------------------------------------------------------------+ | NVIDIA-SMI XXX.XX Driver Version: XXX.XX | |-------------------------------+----------------------+----------------------+ | GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC | | Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. | |===============================+======================+======================| | 0 Tesla V100-SXM2... On | 00000000:00:1C.0 Off | 0 | | N/A 46C P0 47W / 300W | 0MiB / 16160MiB | 0% Default | +-------------------------------+----------------------+----------------------+ +-----------------------------------------------------------------------------+ | Processes: GPU Memory | | GPU PID Type Process name Usage | |=============================================================================| | No running processes found | +-----------------------------------------------------------------------------+
PrivacidadeTermos do sitePreferências de cookies
© 2025, Amazon Web Services, Inc. ou suas afiliadas. Todos os direitos reservados.