Conceitos básicos do EFA e NCCL - Amazon Elastic Compute Cloud

Conceitos básicos do EFA e NCCL

A Nvidia Collective Communications Library (NCCL) é uma biblioteca de rotinas de comunicação coletiva padrão para várias GPUs em um único nó ou em vários nós. A NCCL pode ser usada com o EFA, o Libfabric e a MPI para oferecer suporte a várias workloads de machine learning. Para obter mais informações, consulte o site da NCCL.

As etapas a seguir ajudam você a começar a usar o EFA e o NCCL usando uma AMI base para um dos sistemas operacionais compatíveis.

nota
  • Somente os tipos de instância p3dn.24xlargep4d.24xlarge, e p5.48xlarge são compatíveis.

  • Apenas as AMIs básicas do Amazon Linux 2 e do Ubuntu 20.04/22.04 são compatíveis.

  • Somente a NCCL 2.4.2 e posterior são compatíveis com EFA.

  • Para obter mais informações sobre como executar workloads de machine learning com EFA e NCCL usando um AWS Deep Learning AMI, consulte Usando o EFA no DLAMI no Guia do desenvolvedor do AWS Deep Learning AMI.

Etapa 1: Preparar um grupo de segurança habilitado para EFA

Um EFA requer um grupo de segurança que permita todo o tráfego de entrada e saída do grupo de segurança e para ele próprio. O procedimento a seguir cria um grupo de segurança que permite todo o tráfego de entrada e saída de e para si mesmo e que permite tráfego SSH de entrada de qualquer endereço IPv4 para conectividade SSH.

Importante

Esse grupo de segurança deve ser usado apenas para fins de teste. Para seus ambientes de produção, recomendamos que você crie uma regra SSH de entrada que permita o tráfego somente do endereço IP do qual você está se conectando, como o endereço IP do seu computador ou uma variedade de endereços IP na sua rede local.

Para outros cenários, consulte Regras de grupo de segurança para diferentes casos de uso.

Para criar um grupo de segurança habilitado para EFA
  1. Abra o console do Amazon EC2 em https://console.aws.amazon.com/ec2/.

  2. No painel de navegação, escolha Security Groups (Grupos de segurança) e, em seguida, Create Security Group (Criar grupo de segurança).

  3. Na janela Security group (Grupo de segurança), faça o seguinte:

    1. Em Security group name (Nome do grupo de segurança), insira um nome descritivo para o grupo de segurança, como EFA-enabled security group.

    2. (Opcional) Em Description (Descrição), insira uma breve descrição do grupo de segurança.

    3. Em VPC, selecione a VPC na qual você pretende executar suas instâncias habilitadas para EFA.

    4. Escolha Create security group (Criar grupo de segurança).

  4. Selecione o grupo de segurança que você criou e, na guia Details (Detalhes), copie o Security group (Grupo de segurança).

  5. Com o grupo de segurança ainda selecionado, escolha Actions (Ações), Edit inbound rules (Editar regras de entrada), e faça o seguinte:

    1. Escolha Adicionar regra.

    2. Para Tipo, escolha Todo o tráfego.

    3. Para Source type (Tipo de origem), escolha Custom (Personalizado) e cole o ID do grupo de segurança que você copiou no campo.

    4. Escolha Adicionar regra.

    5. Para Tipo, escolha SSH.

    6. Para Source type (Tipo de origem), escolha Anywhere-IPv4 (IPv4 em qualquer lugar).

    7. Escolha Salvar regras.

  6. Na lista, selecione o grupo de segurança e escolha Actions (Ações), Edit outbound rules (Editar regras de saída), e faça o seguinte:

    1. Escolha Adicionar regra.

    2. Para Tipo, escolha Todo o tráfego.

    3. Para Destination (Destino), escolha Custom (Personalizado) e cole o ID do grupo de segurança que você copiou no campo.

    4. Escolha Salvar regras.

Etapa 2: Iniciar uma instância temporária

Execute uma instância temporária que é possível usar para instalar e configurar os componentes do software EFA. Você usa essa instância para criar um AMI habilitado para EFA a partir do qual é possível executar suas instâncias habilitadas para EFA.

Para executar uma instância temporária
  1. Abra o console do Amazon EC2 em https://console.aws.amazon.com/ec2/.

  2. No painel de navegação, selecione Instances (Instâncias) e, depois, escolha Launch Instances (Iniciar instâncias) para abrir o novo assistente de inicialização de instância.

  3. (Opcional) Na seção Name and tags (Nome e etiquetas), forneça um nome para a instância, como EFA-instance. O nome é atribuído à instância como uma etiqueta de recurso (Name=EFA-instance).

  4. Na seção Application and OS Images (Imagens de aplicação e sistema operacional), selecione uma AMI para um dos sistemas operacionais compatíveis. Apenas as AMIs básicas do Amazon Linux 2, Ubuntu 20.04 e do Ubuntu 22.04 são compatíveis.

  5. Na seção Tipo de instância, selecione p3dn.24xlargep4d.24xlarge ou p5.48xlarge.

  6. Na seção Key pair (Par de chaves), selecione o par de chaves a ser usado na instância.

  7. Na seção Network settings (Configurações da rede), escolha Edit (Editar) e faça o seguinte:

    1. Em Subnet (Sub-rede), escolha a sub-rede na qual deseja iniciar a instância. Se você não selecionar uma sub-rede, não será possível habilitar a instância para o EFA.

    2. Para Firewall (security groups) (Firewall/grupos de segurança), escolhaSelect existing security group (Selecione grupo de segurança existente) e, em seguida, selecione o grupo de segurança que você criou na etapa anterior.

    3. Expanda a seção Advanced network configuration (Configuração avançada de rede) e para Elastic Fabric Adapter (Adaptador de malha elástica), selecione Enable (Habilitar).

  8. Na seção Storage (Armazenamento), configure os volumes conforme necessário.

    nota

    É necessário provisionar um armazenamento adicional de 10 a 20 GiB para o Toolkit Nvidia CUDA. Se você não provisionar armazenamento suficiente, você receberá uma mensagem de erro insufficient disk space ao tentar instalar os drivers Nvidia e o Toolkit CUDA.

  9. No painel Summary (Resumo) painel, escolha Launch instance (Iniciar instância).

Etapa 3: Instalar drivers de GPU Nvidia, o toolkit Nvidia CUDA e o cuDNN

Amazon Linux 2
Para instalar os drivers de GPU Nvidia, o toolkit Nvidia CUDA e o cuDNN
  1. Para garantir que todos os pacotes de software estejam atualizados, execute uma atualização rápida de software em sua instância.

    $ sudo yum upgrade -y && sudo reboot

    Reconecte-se à sua instância depois de reinicializá-la.

  2. Instale os utilitários necessários para instalar os drivers de GPU Nvidia e o toolkit Nvidia CUDA.

    $ sudo yum groupinstall 'Development Tools' -y
  3. Desabilite os drivers de código aberto nouveau.

    1. Instale os utilitários necessários e o pacote de cabeçalhos kernel para a versão do kernel que está sendo executada.

      $ sudo yum install -y wget kernel-devel-$(uname -r) kernel-headers-$(uname -r)
    2. Adicione nouveau ao arquivo de lista de negação /etc/modprobe.d/blacklist.conf .

      $ cat << EOF | sudo tee --append /etc/modprobe.d/blacklist.conf blacklist vga16fb blacklist nouveau blacklist rivafb blacklist nvidiafb blacklist rivatv EOF
    3. Anexe GRUB_CMDLINE_LINUX="rdblacklist=nouveau" ao arquivo grub e recompile a configuração do Grub.

      $ echo 'GRUB_CMDLINE_LINUX="rdblacklist=nouveau"' | sudo tee -a /etc/default/grub \ && sudo grub2-mkconfig -o /boot/grub2/grub.cfg
  4. Reinicialize a instância e reconecte-se a ela.

  5. Prepare os repositórios necessários

    1. Instale o repositório EPEL para DKMS e ative qualquer repositório opcional para sua distribuição Linux.

      $ sudo yum install -y https://dl.fedoraproject.org/pub/epel/epel-release-latest-7.noarch.rpm
    2. Instale a chave GPG pública do repositório CUDA.

      $ distribution='rhel7'
    3. Configure o repositório de rede CUDA e atualize o cache do repositório.

      $ ARCH=$( /bin/arch ) \ && sudo yum-config-manager --add-repo http://developer.download.nvidia.com/compute/cuda/repos/$distribution/${ARCH}/cuda-$distribution.repo \ && sudo yum clean expire-cache
    4. (Somente kernel versão 5.10) Execute estas etapas somente se você estiver usando o Amazon Linux 2 com o kernel versão 5.10. Se você estiver usando o Amazon Linux 2 com o kernel versão 4.12, ignore estas etapas. Para verificar a versão do kernel, execute uname -r.

      1. Crie o arquivo de configuração do driver Nvidia chamado /etc/dkms/nvidia.conf.

        $ sudo mkdir -p /etc/dkms \ && echo "MAKE[0]=\"'make' -j2 module SYSSRC=\${kernel_source_dir} IGNORE_XEN_PRESENCE=1 IGNORE_PREEMPT_RT_PRESENCE=1 IGNORE_CC_MISMATCH=1 CC=/usr/bin/gcc10-gcc\"" | sudo tee /etc/dkms/nvidia.conf
      2. (p4d.24xlarge e p5.48xlarge somente) Copie o arquivo de configuração do driver NVIDIA.

        $ sudo cp /etc/dkms/nvidia.conf /etc/dkms/nvidia-open.conf
  6. Instale os drivers de GPU Nvidia, o toolkit Nvidia CUDA e o cuDNN.

    • p3dn.24xlarge

      $ sudo yum clean all \ && sudo yum -y install kmod-nvidia-latest-dkms nvidia-driver-latest-dkms \ && sudo yum -y install cuda-drivers-fabricmanager cuda libcudnn8-devel
    • p4d.24xlarge e p5.48xlarge

      $ sudo yum clean all \ && sudo yum -y install kmod-nvidia-open-dkms nvidia-driver-latest-dkms \ && sudo yum -y install cuda-drivers-fabricmanager cuda libcudnn8-devel
  7. Reinicialize a instância e reconecte-se a ela.

  8. (p4d.24xlarge e p5.48xlarge somente) Inicie o serviço NVIDIA Fabric Manager e verifique se ele será iniciado automaticamente quando a instância for iniciada. O Nvidia Fabric Manager é necessário para o gerenciamento do NV Switch.

    $ sudo systemctl enable nvidia-fabricmanager && sudo systemctl start nvidia-fabricmanager
  9. Certifique-se de que os caminhos do CUDA sejam definidos cada vez que a instância for executada.

    • Em shells bash, adicione as seguintes instruções a /home/username/.bashrc e /home/username/.bash_profile.

      export PATH=/usr/local/cuda/bin:$PATH export LD_LIBRARY_PATH=/usr/local/cuda/lib64:/usr/local/cuda/extras/CUPTI/lib64:$LD_LIBRARY_PATH
    • Em shells tcsh, adicione as seguintes instruções a /home/username/.cshrc.

      setenv PATH=/usr/local/cuda/bin:$PATH setenv LD_LIBRARY_PATH=/usr/local/cuda/lib64:/usr/local/cuda/extras/CUPTI/lib64:$LD_LIBRARY_PATH
  10. Para verificar se os drivers de GPU Nvidia estão funcionando, execute o comando a seguir.

    $ nvidia-smi -q | head

    O comando deve retornar informações sobre os as GPUs Nvidia, sobre os drivers de GPU Nvidia e sobre o toolkit Nvidia CUDA.

Ubuntu 20.04/22.04
Para instalar os drivers de GPU Nvidia, o toolkit Nvidia CUDA e o cuDNN
  1. Para garantir que todos os pacotes de software estejam atualizados, execute uma atualização rápida de software em sua instância.

    $ sudo apt-get update && sudo apt-get upgrade -y
  2. Instale os utilitários necessários para instalar os drivers de GPU Nvidia e o toolkit Nvidia CUDA.

    $ sudo apt-get update && sudo apt-get install build-essential -y
  3. Para usar o driver de GPU Nvidia, é necessário primeiro desabilitar os drivers de código aberto nouveau.

    1. Instale os utilitários necessários e o pacote de cabeçalhos kernel para a versão do kernel que está sendo executada.

      $ sudo apt-get install -y gcc make linux-headers-$(uname -r)
    2. Adicione nouveau ao arquivo de lista de negação /etc/modprobe.d/blacklist.conf .

      $ cat << EOF | sudo tee --append /etc/modprobe.d/blacklist.conf blacklist vga16fb blacklist nouveau blacklist rivafb blacklist nvidiafb blacklist rivatv EOF
    3. Abra o /etc/default/grub usando o editor de texto de sua preferência e adicione o seguinte.

      GRUB_CMDLINE_LINUX="rdblacklist=nouveau"
    4. Recompile a configuração do Grub.

      $ sudo update-grub
  4. Reinicialize a instância e reconecte-se a ela.

  5. Adicione o repositório CUDA e instale os drivers de GPU Nvidia, o toolkit Nvidia CUDA e o cuDNN.

    • p3dn.24xlarge

      $ sudo apt-key adv --fetch-keys http://developer.download.nvidia.com/compute/machine-learning/repos/ubuntu2004/x86_64/7fa2af80.pub \ && wget -O /tmp/deeplearning.deb http://developer.download.nvidia.com/compute/machine-learning/repos/ubuntu2004/x86_64/nvidia-machine-learning-repo-ubuntu2004_1.0.0-1_amd64.deb \ && sudo dpkg -i /tmp/deeplearning.deb \ && wget -O /tmp/cuda.pin https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2004/x86_64/cuda-ubuntu2004.pin \ && sudo mv /tmp/cuda.pin /etc/apt/preferences.d/cuda-repository-pin-600 \ && sudo apt-key adv --fetch-keys https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2004/x86_64/3bf863cc.pub \ && sudo add-apt-repository 'deb http://developer.download.nvidia.com/compute/cuda/repos/ubuntu2004/x86_64/ /' \ && sudo apt update \ && sudo apt install nvidia-dkms-535 \ && sudo apt install -o Dpkg::Options::='--force-overwrite' cuda-drivers-535 cuda-toolkit-12-3 libcudnn8 libcudnn8-dev -y
    • p4d.24xlarge e p5.48xlarge

      $ sudo apt-key adv --fetch-keys http://developer.download.nvidia.com/compute/machine-learning/repos/ubuntu2004/x86_64/7fa2af80.pub \ && wget -O /tmp/deeplearning.deb http://developer.download.nvidia.com/compute/machine-learning/repos/ubuntu2004/x86_64/nvidia-machine-learning-repo-ubuntu2004_1.0.0-1_amd64.deb \ && sudo dpkg -i /tmp/deeplearning.deb \ && wget -O /tmp/cuda.pin https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2004/x86_64/cuda-ubuntu2004.pin \ && sudo mv /tmp/cuda.pin /etc/apt/preferences.d/cuda-repository-pin-600 \ && sudo apt-key adv --fetch-keys https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2004/x86_64/3bf863cc.pub \ && sudo add-apt-repository 'deb http://developer.download.nvidia.com/compute/cuda/repos/ubuntu2004/x86_64/ /' \ && sudo apt update \ && sudo apt install nvidia-kernel-open-535 \ && sudo apt install -o Dpkg::Options::='--force-overwrite' cuda-drivers-535 cuda-toolkit-12-3 libcudnn8 libcudnn8-dev -y
  6. Reinicialize a instância e reconecte-se a ela.

  7. (Somente p4d.24xlarge e p5.48xlarge) Instale o Nvidia Fabric Manager.

    1. É necessário instalar a versão do Nvidia Fabric Manager que corresponde à versão do módulo do kernel Nvidia que você instalou na etapa anterior.

      Execute o seguinte comando para determinar a versão do módulo do kernel Nvidia.

      $ cat /proc/driver/nvidia/version | grep "Kernel Module"

      A seguir está um exemplo de saída.

      NVRM version: NVIDIA UNIX x86_64 Kernel Module 450.42.01 Tue Jun 15 21:26:37 UTC 2021

      No exemplo acima, a versão principal450do módulo do kernel foi instalado. Isso significa que você precisa instalar a versão do Nvidia Fabric Manager450.

    2. Instale o Nvidia Fabric Manager. Execute o seguinte comando e especifique a versão principal identificada na etapa anterior.

      $ sudo apt install -o Dpkg::Options::='--force-overwrite' nvidia-fabricmanager-major_version_number

      Por exemplo, se a versão principal450do módulo do kernel foi instalado, use o seguinte comando para instalar a versão correspondente do Nvidia Fabric Manager.

      $ sudo apt install -o Dpkg::Options::='--force-overwrite' nvidia-fabricmanager-450
    3. Inicie o serviço e certifique-se de que ele seja iniciado automaticamente quando a instância for executada. O Nvidia Fabric Manager é necessário para o gerenciamento do NV Switch.

      $ sudo systemctl start nvidia-fabricmanager && sudo systemctl enable nvidia-fabricmanager
  8. Certifique-se de que os caminhos do CUDA sejam definidos cada vez que a instância for executada.

    • Em shells bash, adicione as seguintes instruções a /home/username/.bashrc e /home/username/.bash_profile.

      export PATH=/usr/local/cuda/bin:$PATH export LD_LIBRARY_PATH=/usr/local/cuda/lib64:/usr/local/cuda/extras/CUPTI/lib64:$LD_LIBRARY_PATH
    • Em shells tcsh, adicione as seguintes instruções a /home/username/.cshrc.

      setenv PATH=/usr/local/cuda/bin:$PATH setenv LD_LIBRARY_PATH=/usr/local/cuda/lib64:/usr/local/cuda/extras/CUPTI/lib64:$LD_LIBRARY_PATH
  9. Para verificar se os drivers de GPU Nvidia estão funcionando, execute o comando a seguir.

    $ nvidia-smi -q | head

    O comando deve retornar informações sobre os as GPUs Nvidia, sobre os drivers de GPU Nvidia e sobre o toolkit Nvidia CUDA.

Etapa 4: instalar o GDRCopy

Instale o GDRCopy para melhorar a performance do Libfabric. Para obter mais informações sobre a GDRCopy, consulte o repositório do GDRCopy.

Amazon Linux 2
Para instalar o GDRCopy
  1. Instale as dependências necessárias.

    $ sudo yum -y install dkms rpm-build make check check-devel subunit subunit-devel
  2. Baixe e extraia o pacote do GDRCopy.

    $ wget https://github.com/NVIDIA/gdrcopy/archive/refs/tags/v2.4.tar.gz \ && tar xf v2.4.tar.gz ; cd gdrcopy-2.4/packages
  3. Crie o pacote RPM do GDRCopy.

    $ CUDA=/usr/local/cuda ./build-rpm-packages.sh
  4. Instale o pacote RPM do GDRCopy.

    $ sudo rpm -Uvh gdrcopy-kmod-2.4-1dkms.noarch*.rpm \ && sudo rpm -Uvh gdrcopy-2.4-1.x86_64*.rpm \ && sudo rpm -Uvh gdrcopy-devel-2.4-1.noarch*.rpm
Ubuntu 20.04/22.04
Para instalar o GDRCopy
  1. Instale as dependências necessárias.

    $ sudo apt -y install build-essential devscripts debhelper check libsubunit-dev fakeroot pkg-config dkms
  2. Baixe e extraia o pacote do GDRCopy.

    $ wget https://github.com/NVIDIA/gdrcopy/archive/refs/tags/v2.4.tar.gz \ && tar xf v2.4.tar.gz \ && cd gdrcopy-2.4/packages
  3. Crie o pacote RPM do GDRCopy.

    $ CUDA=/usr/local/cuda ./build-deb-packages.sh
  4. Instale o pacote RPM do GDRCopy.

    $ sudo dpkg -i gdrdrv-dkms_2.4-1_amd64.*.deb \ && sudo dpkg -i libgdrapi_2.4-1_amd64.*.deb \ && sudo dpkg -i gdrcopy-tests_2.4-1_amd64.*.deb \ && sudo dpkg -i gdrcopy_2.4-1_amd64.*.deb

Etapa 5: instalar o software EFA

Instale o kernel habilitado para EFA, drivers EFA, Libfabric e pilha Open MPI que é necessário para oferecer compatibilidade com EFA em sua instância temporária.

Como instalar o software EFA
  1. Conecte à instância que você iniciou. Para ter mais informações, consulte Conecte-se à sua instância do Linux.

  2. Faça download dos arquivos de instalação do software do EFA. Os arquivos de instalação do software são empacotados em um arquivo compactado tarball (.tar.gz). Para fazer download da última versão estável, use o seguinte comando:

    $ C:\> curl -O https://efa-installer.amazonaws.com/aws-efa-installer-1.33.0.tar.gz

    Também é possível obter a versão mais recente substituindo o número da versão por latest no comando acima.

  3. (Opcional) Verifique a autenticidade e a integridade do arquivo do EFA tarball (.tar.gz).

    Recomendamos que você faça isso para verificar a identidade do fornecedor do software e para verificar se a aplicação não foi alterada ou corrompida desde que foi publicada. Se você não deseja verificar o arquivo tarball, ignore esta etapa.

    nota

    Como alternativa, se você preferir verificar o arquivo tarball usando uma soma de verificação MD5 ou SHA256, consulte Verificar o instalador EFA usando uma soma de verificação.

    1. Faça download da chave GPG pública e importe-a para seu pen-drive.

      $ wget https://efa-installer.amazonaws.com/aws-efa-installer.key && gpg --import aws-efa-installer.key

      O comando deve retornar um valor de chave. Anote o valor da chave, pois ele será necessário na próxima etapa.

    2. Verifique a impressão digital da chave GPG. Execute o seguinte comando e especifique o valor de chave da etapa anterior.

      $ gpg --fingerprint key_value

      O comando deve retornar uma impressão digital idêntica a 4E90 91BC BB97 A96B 26B1 5E59 A054 80B1 DD2D 3CCC. Se a impressão digital não corresponder, não execute o script de instalação do EFA e entre em contato com o AWS Support.

    3. Faça download do arquivo de assinatura e verifique a assinatura do arquivo tarball EFA.

      $ wget https://efa-installer.amazonaws.com/aws-efa-installer-1.33.0.tar.gz.sig && gpg --verify ./aws-efa-installer-1.33.0.tar.gz.sig

      Veja a seguir um exemplo de saída.

      gpg: Signature made Wed 29 Jul 2020 12:50:13 AM UTC using RSA key ID DD2D3CCC gpg: Good signature from "Amazon EC2 EFA <ec2-efa-maintainers@amazon.com>" gpg: WARNING: This key is not certified with a trusted signature! gpg: There is no indication that the signature belongs to the owner. Primary key fingerprint: 4E90 91BC BB97 A96B 26B1 5E59 A054 80B1 DD2D 3CCC

      Se o resultado incluir Good signature e a impressão digital corresponder à impressão digital retornada na etapa anterior, passe para a próxima etapa. Caso contrário, não execute o script de instalação do EFA e entre em contato com o AWS Support.

  4. Extraia os arquivos do arquivo compactado .tar.gz e navegue para o diretório extraído.

    $ C:\> tar -xf aws-efa-installer-1.33.0.tar.gz && cd aws-efa-installer
  5. Execute o script de instalação do software EFA.

    nota

    A partir do EFA 1.30.0, tanto o Open MPI 4 quanto o Open MPI 5 são instalados por padrão. A menos que você precise do Open MPI 5, recomendamos instalar somente o Open MPI 4. O comando a seguir instala somente o Open MPI 4. Se quiser instalar o Open MPI 4 e o Open MPI 5, remova --mpi=openmpi4.

    $ sudo ./efa_installer.sh -y --mpi=openmpi4

    O Libfabric é instalado no diretório /opt/amazon/efa, enquanto a Open MPI é instalada no diretório /opt/amazon/openmpi.

  6. Se o instalador do EFA solicitar que você reinicialize a instância, faça-o e, em seguida, reconecte-se à instância. Caso contrário, faça logout da instância e faça login novamente para concluir a instalação.

  7. Confirme se os componentes do software EFA foram instalados com sucesso.

    $ fi_info -p efa -t FI_EP_RDM

    O comando deve retornar informações sobre as interfaces EFA Libfabric. O exemplo a seguir mostra a saída do comando.

    • p3dn.24xlarge com interface de rede única

      provider: efa fabric: EFA-fe80::94:3dff:fe89:1b70 domain: efa_0-rdm version: 2.0 type: FI_EP_RDM protocol: FI_PROTO_EFA
    • p4d.24xlarge e p5.48xlarge com várias interfaces de rede

      provider: efa fabric: EFA-fe80::c6e:8fff:fef6:e7ff domain: efa_0-rdm version: 111.0 type: FI_EP_RDM protocol: FI_PROTO_EFA provider: efa fabric: EFA-fe80::c34:3eff:feb2:3c35 domain: efa_1-rdm version: 111.0 type: FI_EP_RDM protocol: FI_PROTO_EFA provider: efa fabric: EFA-fe80::c0f:7bff:fe68:a775 domain: efa_2-rdm version: 111.0 type: FI_EP_RDM protocol: FI_PROTO_EFA provider: efa fabric: EFA-fe80::ca7:b0ff:fea6:5e99 domain: efa_3-rdm version: 111.0 type: FI_EP_RDM protocol: FI_PROTO_EFA

Etapa 6: instalar NCCL

Instale a NCCL. Para obter mais informações sobre a NCCL, consulte o Repositório da NCCL.

Como instalar a NCCL
  1. Navegue até o diretório /opt.

    $ cd /opt
  2. Clone o repositório oficial da NCCL para a instância e navegue até o repositório local clonado.

    $ sudo git clone https://github.com/NVIDIA/nccl.git && cd nccl
  3. Compile e instale a NCCL e especifique o diretório de instalação do CUDA.

    $ sudo make -j src.build CUDA_HOME=/usr/local/cuda

Etapa 7: instalar o plug-in aws-ofi-nccl

O plugin aws-ofi-nccl mapeia as APIs de transporte orientadas para a conexão da NCCL para a interface de conexão menos confiável do Libfabric. Isso permite usar o Libfabric como um provedor de rede ao executar aplicações baseadas na NCCL. Para obter mais informações sobre o plugin aws-ofi-nccl, consulte o Repositório do aws-ofi-nccl.

Como instalar o plugin aws-ofi-nccl
  1. Navegue até o diretório inicial.

    $ cd $HOME
  2. Instale os utilitários exigidos.

    • Amazon Linux 2

      $ sudo yum install hwloc-devel
    • Ubuntu

      $ sudo apt-get install libhwloc-dev
  3. Baixe os arquivos do plug-in aws-ofi-nccl. Os arquivos estão empacotados em um arquivo compactado tarball (.tar.gz).

    $ wget https://github.com/aws/aws-ofi-nccl/releases/download/v1.9.2-aws/aws-ofi-nccl-1.9.2-aws.tar.gz
  4. Extraia os arquivos do arquivo compactado .tar.gz e navegue para o diretório extraído.

    $ tar -xf aws-ofi-nccl-1.9.2-aws.tar.gz && cd aws-ofi-nccl-1.9.2-aws
  5. Para gerar os arquivos make, execute o script configure e especifique os diretórios de instalação da MPI, do Libfabric, da NCCL e do CUDA.

    $ ./configure --prefix=/opt/aws-ofi-nccl --with-mpi=/opt/amazon/openmpi \ --with-libfabric=/opt/amazon/efa \ --with-cuda=/usr/local/cuda \ --enable-platform-aws
  6. Adicione o diretório Open MPI à variável PATH.

    $ export PATH=/opt/amazon/openmpi/bin/:$PATH
  7. Instale o plugin aws-ofi-nccl.

    $ make && sudo make install

Etapa 8: instalar os testes da NCCL

Instale os testes da NCCL. Os testes da NCCL permitem confirmar se a NCCL está instalada adequadamente se ela está funcionando conforme esperado. Para obter mais informações sobre os testes da NCCL, consulte o Repositório nccl-tests.

Como instalar os testes da NCCL
  1. Navegue até o diretório inicial.

    $ cd $HOME
  2. Clone o repositório oficial de nccl-tests para a instância e navegue até o repositório local clonado.

    $ git clone https://github.com/NVIDIA/nccl-tests.git && cd nccl-tests
  3. Adicione o diretório do Libfabric à variável LD_LIBRARY_PATH.

    • Amazon Linux 2

      $ export LD_LIBRARY_PATH=/opt/amazon/efa/lib64:$LD_LIBRARY_PATH
    • Ubuntu

      $ export LD_LIBRARY_PATH=/opt/amazon/efa/lib:$LD_LIBRARY_PATH
  4. Instale os testes da NCCL e especifique os diretórios de instalação da MPI da NCCL e do CUDA.

    $ make MPI=1 MPI_HOME=/opt/amazon/openmpi NCCL_HOME=/opt/nccl/build CUDA_HOME=/usr/local/cuda

Etapa 9: testar a configuração do EFA e da NCCL

Execute um teste para verificar se a instância temporária está configurada adequadamente para o EFA e para a NCCL.

Como testar a configuração do EFA e da NCCL
  1. Crie um arquivo de host que especifique os hosts nos quais executar os testes. O comando a seguir cria um arquivo de host chamado my-hosts que inclui uma referência à própria instância.

    IMDSv2
    [ec2-user ~]$ TOKEN=`curl -X PUT "http://169.254.169.254/latest/api/token" -H "X-aws-ec2-metadata-token-ttl-seconds: 21600"` \ && curl -H "X-aws-ec2-metadata-token: $TOKEN" –v http://169.254.169.254/latest/meta-data/local-ipv4 >> my-hosts
    IMDSv1
    [ec2-user ~]$ curl http://169.254.169.254/latest/meta-data/local-ipv4 >> my-hosts
  2. Execute o teste e especifique o arquivo de host (--hostfile) e o número de GPUs a serem usadas (-n). O comando a seguir executa o teste all_reduce_perf em 8 GPUs na própria instância e especifica as variáveis de ambiente a seguir.

    • FI_EFA_USE_DEVICE_RDMA=1: (somente p4d.24xlarge) usa a funcionalidade RDMA do dispositivo para transferência unilateral e bilateral.

    • NCCL_DEBUG=INFO habilita a saída de depuração detalhada. Também é possível especificar VERSION para imprimir somente a versão da NCCL no início do teste ou WARN para receber somente mensagens de erro.

    Para obter mais informações sobre os argumentos de teste da NCCL, consulte o README NCCL Tests no repositório oficial de nccl-tests.

    • p3dn.24xlarge

      $ /opt/amazon/openmpi/bin/mpirun \ -x LD_LIBRARY_PATH=/opt/nccl/build/lib:/usr/local/cuda/lib64:/opt/amazon/efa/lib:/opt/amazon/openmpi/lib:/opt/aws-ofi-nccl/lib:$LD_LIBRARY_PATH \ -x NCCL_DEBUG=INFO \ --hostfile my-hosts -n 8 -N 8 \ --mca pml ^cm --mca btl tcp,self --mca btl_tcp_if_exclude lo,docker0 --bind-to none \ $HOME/nccl-tests/build/all_reduce_perf -b 8 -e 1G -f 2 -g 1 -c 1 -n 100
    • p4d.24xlarge e p5.48xlarge

      $ /opt/amazon/openmpi/bin/mpirun \ -x FI_EFA_USE_DEVICE_RDMA=1 \ -x LD_LIBRARY_PATH=/opt/nccl/build/lib:/usr/local/cuda/lib64:/opt/amazon/efa/lib:/opt/amazon/openmpi/lib:/opt/aws-ofi-nccl/lib:$LD_LIBRARY_PATH \ -x NCCL_DEBUG=INFO \ --hostfile my-hosts -n 8 -N 8 \ --mca pml ^cm --mca btl tcp,self --mca btl_tcp_if_exclude lo,docker0 --bind-to none \ $HOME/nccl-tests/build/all_reduce_perf -b 8 -e 1G -f 2 -g 1 -c 1 -n 100
  3. É possível confirmar se EFA está ativo como o provedor subjacente para NCCL quando o log NCCL_DEBUG é impresso.

    ip-192-168-2-54:14:14 [0] NCCL INFO NET/OFI Selected Provider is efa*

    As seguintes informações adicionais são exibidas ao usar uma instância p4d.24xlarge.

    ip-192-168-2-54:14:14 [0] NCCL INFO NET/OFI Running on P4d platform, Setting NCCL_TOPO_FILE environment variable to /home/ec2-user/install/plugin/share/aws-ofi-nccl/xml/p4d-24xl-topo.xml

Etapa 10: instalar as aplicações de machine learning

Instale as aplicações de machine learning na instância temporária. O procedimento de instalação varia dependendo da aplicação de machine learning específica. Para obter mais informações sobre instalação de software em sua instância do Linux, consulte Manage software on your Amazon Linux 2 instance.

nota

Pode ser necessário consultar a documentação da aplicação de machine learning para obter instruções de instalação.

Etapa 11: criar um EFA e uma AMI habilitada para NCCL

Depois de instalar os componentes de software necessários, crie uma AMI que possa ser reutilizada para executar suas instâncias habilitadas para o EFA.

Para criar uma AMI a partir de sua instância temporária
  1. Abra o console do Amazon EC2 em https://console.aws.amazon.com/ec2/.

  2. No painel de navegação, escolha Instances (Instâncias).

  3. Selecione a instância, escolha Actions (Ações), Image (Imagem), Create image (Criar imagem).

  4. Em Create image (Criar imagem), faça o seguinte:

    1. Em Image name (Nome da imagem), insira um nome descritivo para a AMI.

    2. (Opcional) Em Image description (Descrição da imagem), informe a descrição do propósito da AMI.

    3. Escolha Create Image (Criar imagem).

  5. No painel de navegação, selecione AMIs.

  6. Encontre a AMI que você criou na lista. Aguarde até que o status mude de pending para available antes de continuar para a próxima etapa.

Etapa 12: encerrar a instância temporária

Neste ponto, você não precisa mais da instância temporária que você executou. É possível encerrar a instância para não incorrer mais em cobranças desnecessárias.

Para encerrar a instância temporária
  1. Abra o console do Amazon EC2 em https://console.aws.amazon.com/ec2/.

  2. No painel de navegação, escolha Instances (Instâncias).

  3. Selecione a instância temporária, escolha Actions (Ações), selecione Instance state (Estado da instância), Terminate instance (Encerrar instance).

  4. Quando a confirmação for solicitada, escolha Terminate (Encerrar).

Etapa 13: iniciar instâncias habilitadas para o EFA e para a NCCL em um grupo de posicionamento de cluster

Execute as instâncias habilitadas para EFA em um grupo de posicionamento de cluster usando a AMI habilitada para EFA criada e o grupo de segurança habilitado para EFA criado anteriormente.

nota
  • Não é um requisito absoluto executar suas instâncias habilitadas para EFA em um placement group de cluster. No entanto, recomendamos a execução de suas instâncias habilitadas para EFA em um grupo de posicionamento de cluster ao executar as instâncias em um grupo de baixa latência em uma única zona de disponibilidade.

  • Para garantir que a capacidade esteja disponível à medida que escala as instâncias do cluster, é possível criar uma reserva de capacidade para o grupo de posicionamento de cluster. Para ter mais informações, consulte As reservas de capacidade não podem ser criadas em grupos de posicionamento de cluster.

New console
Para executar uma instância temporária
  1. Abra o console do Amazon EC2 em https://console.aws.amazon.com/ec2/.

  2. No painel de navegação, selecione Instances (Instâncias) e, depois, escolha Launch Instances (Iniciar instâncias) para abrir o novo assistente de inicialização de instância.

  3. (Opcional) Na seção Name and tags (Nome e etiquetas), forneça um nome para a instância, como EFA-instance. O nome é atribuído à instância como uma etiqueta de recurso (Name=EFA-instance).

  4. Na seção Application and OS Images (Imagens de aplicações e SO), selecione My AMIs (Minhas AMIs) e, em seguida, selecione a AMI que você criou na etapa anterior.

  5. Na seção Instance type (Tipo de instância), selecione p3dn.24xlarge ou p4d.24xlarge.

  6. Na seção Key pair (Par de chaves), selecione o par de chaves a ser usado na instância.

  7. Na seção Network settings (Configurações da rede), escolha Edit (Editar) e faça o seguinte:

    1. Em Subnet (Sub-rede), escolha a sub-rede na qual deseja iniciar a instância. Se você não selecionar uma sub-rede, não será possível habilitar a instância para o EFA.

    2. Para Firewall (security groups) (Firewall/grupos de segurança), escolhaSelect existing security group (Selecione grupo de segurança existente) e, em seguida, selecione o grupo de segurança que você criou na etapa anterior.

    3. Expanda a seção Advanced network configuration (Configuração avançada de rede) e para Elastic Fabric Adapter (Adaptador de malha elástica), selecione Enable (Habilitar).

  8. (Opcional) Na seção Storage (Armazenamento), configure os volumes conforme necessário.

  9. Na seção Advanced details (Detalhes avançados), para Placement group name (Nome do grupo de posicionamento), selecione o grupo de posicionamento de cluster no qual iniciar a instância. Caso precise criar um novo grupo de posicionamento de cluster, escolha Create new placement group (Criar novo grupo de posicionamento).

  10. No painel Summary (Resumo) à direita, em Number of instances (Número de instâncias), insira o número de instâncias habilitadas para EFA que você deseja iniciar e escolha Launch instance (Iniciar instância).

Old console
Para executar as instâncias habilitadas para EFA e NCCL em um grupo de posicionamento de cluster.
  1. Abra o console do Amazon EC2 em https://console.aws.amazon.com/ec2/.

  2. Escolha Launch Instance (Executar instância).

  3. Na página Choose an AMI (Escolher uma AMI), selecione My AMIs (Minhas AMIs), localize a AMI criada anteriormente e escolha Select (Selecionar).

  4. Na página Choose an Instance Type (Escolher um tipo de instância), escolha p3dn.24xlarge e selecione Next: Configure Instance Details (Próximo: configurar detalhes da instância).

  5. Na página Configure Instance Details (Configurar detalhes da instância), faça o seguinte:

    1. Em Number of instances (Número de instâncias), insira o número de instâncias habilitadas para EFA e NCCL que você deseja executar.

    2. Em Network (Rede) e Subnet (Sub-rede), selecione a VPC e a sub-rede na qual executar as instâncias.

    3. Em Placement group, selecione Add instance to placement group (Adicionar instância ao placement group).

    4. Em Placement group name (Nome do grupo de posicionamento), selecione Add to a new placement group (Adicionar a um novo grupo de posicionamento) e, em seguida, insira um nome descritivo para o grupo de posicionamento. Em seguida, em Placement group strategy (Estratégia do grupo de posicionamento), selecione cluster.

    5. Para EFA, escolha Enable (Habilitar).

    6. Na seção Network Interfaces (Interfaces de rede), para dispositivo eth0, escolha New network interface (Nova interface de rede). Como opção, é possível especificar um endereço IPv4 principal e um ou mais endereços IPv4 secundários. Se estiver executando a instância em uma sub-rede que tenha um bloco CIDR IPv6 associado, será possível especificar opcionalmente um endereço IPv6 principal e um ou mais endereços IPv6 secundários.

    7. Escolha Next: Add Storage.

  6. Na página Add Storage (Adicionar armazenamento), especifique os volumes para anexar às instâncias, além dos volumes especificados pela AMI (como o volume raiz). Depois, selecione Next: Add Tags (Próximo: adicionar tags).

  7. Na página Add Tags (Adicionar tags), especifique tags para as instâncias, como nome amigável, e selecione Next: Configure Security Group (Próximo: Configurar grupo de segurança).

  8. Na página Configure Security Group (Configurar grupo de segurança), para Assign a security group (Atribuir um grupo de segurança), selecione Select an existing security group (Selecionar um grupo de segurança existente) e selecione o grupo de segurança que você criou anteriormente.

  9. Escolha Review and Launch.

  10. Na página Revisar execução da instância, reveja as configurações, e escolha Executar para escolher um par de chaves e executar a instâncias.

Etapa 14: habilitar SSH sem senha

Para permitir que suas aplicações sejam executadas em todas as instâncias do cluster, é necessário habilitar o acesso SSH sem senha do nó líder para os nós membros. O nó líder é a instância a partir da qual você executa suas aplicações. As instâncias restantes no cluster são os nós membros.

Para habilitar SSH sem senha entre as instâncias no cluster
  1. Selecione uma instância no cluster como o nó líder e conecte-se a ela.

  2. Desabilite strictHostKeyChecking e habilite ForwardAgent no nó líder. Abra o ~/.ssh/config usando o editor de texto de sua preferência e adicione o seguinte.

    Host * ForwardAgent yes Host * StrictHostKeyChecking no
  3. Gere um par de chaves RSA.

    $ ssh-keygen -t rsa -N "" -f ~/.ssh/id_rsa

    O par de chaves é criado no diretório do $HOME/.ssh/.

  4. Altere as permissões da chave privada no nó líder.

    $ chmod 600 ~/.ssh/id_rsa chmod 600 ~/.ssh/config
  5. Abra ~/.ssh/id_rsa.pub usando seu editor de texto preferido e copie a chave.

  6. Para cada nó de membro no cluster, faça o seguinte:

    1. Conecte-se à instância.

    2. Abra ~/.ssh/authorized_keys usando o editor de texto de sua preferência e adicione a chave pública que você copiou anteriormente.

  7. Para testar se o SSH sem senha está funcionando como esperado, conecte-se ao seu nó líder e execute o comando a seguir.

    $ ssh member_node_private_ip

    É necessário se conectar ao nó membro sem receber uma solicitação para inserir uma chave ou senha.