Amazon Elastic Compute Cloud
Linux 인스턴스용 사용 설명서

Linux 액셀러레이티드 컴퓨팅 인스턴스

높은 처리 기능이 필요한 경우 그래픽 처리 디바이스(GPU) 또는 필드 프로그래밍 가능 게이트 어레이(FPGA) 등의 하드웨어 기반 컴퓨팅 액셀러레이터에 대한 액세스를 제공하는 액셀러레이티드 컴퓨팅 인스턴스를 사용하면 도움이 됩니다. 액셀러레이티드 컴퓨팅 인스턴스는 컴퓨팅 집약적 워크로드에서 더 높은 처리량을 위한 병렬 처리를 활성화합니다.

GPU 기반 인스턴스는 수천 개의 컴퓨팅 코어로 NVIDIA GPU에 대한 액세스를 제공합니다. 액셀러레이티드 컴퓨팅 인스턴스로 CUDA(Compute Unified Device Architecture) 또는 OpenCL(Open Computing Language) 병렬 컴퓨팅 프레임워크를 활용하여 GPU 기반 과학, 공학 및 렌더링 애플리케이션의 속도를 높일 수 있습니다. 게임 스트리밍, 3-D 애플리케이션 스트리밍 등의 그래픽 애플리케이션 및 기타 그래픽 워크로드에 활용할 수도 있습니다.

FPGA 기반 인스턴스는 수백만 개의 병렬 시스템 로직 셀로 대용량 FPGA에 대한 액세스를 제공합니다. FPGA 기반 액셀러레이티드 컴퓨팅 인스턴스를 사용하여 사용자 지정 하드웨어 액셀러레이션 활용을 통해 게놈, 재무 분석, 실시간 비디오 프로세싱, 빅 데이터 분석 및 보안 워크로드와 같은 워크로드를 가속화할 수 있습니다. Verilog 또는 VHDL과 같은 하드웨어 설명 언어를 사용하거나 OpenCL 병렬 컴퓨팅 프레임워크와 같은 상위 수준의 언어를 사용하여 이러한 액셀러레이션을 개발할 수 있습니다. 자체 하드웨어 액셀러레이션 코드를 개발하거나 AWS Marketplace를 통해 하드웨어 액셀러레이션을 구매할 수 있습니다.

중요

FPGA 기반 인스턴스는 Microsoft Windows를 지원하지 않습니다.

가속 컴퓨팅 인스턴스를 하나의 클러스터 배치 그룹으로 클러스터링할 수 있습니다. 클러스터 배치 그룹은 단일 가용 영역 내의 인스턴스 간에 낮은 지연 시간과 높은 대역폭 연결을 제공합니다. 자세한 내용은 배치 그룹 단원을 참조하십시오.

Windows 액셀러레이티드 컴퓨팅 인스턴스에 대한 자세한 내용은 Windows 인스턴스용 Amazon EC2 사용 설명서Windows 액셀러레이티드 컴퓨팅 인스턴스를 참조하십시오.

액셀러레이티드 컴퓨팅 인스턴스 패밀리

액셀러레이티드 컴퓨팅 인스턴스 패밀리는 하드웨어 액셀러레이터나 코프로세서를 사용함으로써 부동 소수점 계산 및 그래픽 처리, 또는 데이터 패턴 매칭 등과 같은 일부 기능을, CPU에서 실행하는 소프트웨어에서 수행하는 것보다 더 효율적으로 수행합니다. Amazon EC2에서는 다음과 같은 액셀러레이티드 컴퓨팅 인스턴스 패밀리를 실행할 수 있습니다.

F1 인스턴스

F1 인스턴스는 Xilinx UltraScale+ VU9P FPGA를 사용하고 범용 CPU에는 적합하지 않은 데이터 흐름 또는 고도로 병렬적인 작업과 같은 컴퓨팅 집약적 알고리즘을 가속화하도록 설계되었습니다. F1 인스턴스의 각 FPGA에는 약 250만 개의 로직 요소와 약 6,800개의 DSP(Digital Signal Processing) 엔진이 포함되어 있고 전용 PCIe Gen3 x16 연결로 인스턴스에 연결된 로컬 DDR ECC 보호 메모리 64GiB가 있습니다. F1 인스턴스는 로컬 NVMe SSD 볼륨을 제공합니다.

개발자는 FPGA 개발자 AMI 및 AWS 하드웨어 개발자 키트를 사용하여 F1 인스턴스에 사용할 사용자 지정 하드웨어 액셀러레이션을 생성할 수 있습니다. FPGA 개발자AMI에는 클라우드의 전체 주기 FPGA 개발용 개발 도구가 포함됩니다. 이러한 도구를 사용하여 개발자는 F1 인스턴스의 FPGA에 로드할 수 있는 Amazon FPGA 이미지(AFI)를 생성 및 공유할 수 있습니다.

자세한 내용은 Amazon EC2 F1 인스턴스를 참조하십시오.

P3 인스턴스

P3 인스턴스는 NVIDIA Tesla V100 GPU를 사용하며, CUDA 또는 OpenCL 프로그래밍 모델을 사용하거나 머신 러닝 프레임워크를 통해 범용 GPU 컴퓨팅에 맞게 설계되었습니다. P3 인스턴스는 고대역 네트워킹, 강력한 반정밀도, 단정밀도 및 배정밀도 부동 소수점 기능, GPU당 최대 32GiB의 메모리를 제공하므로, 딥 러닝, 전산 유체 역학(CFD), 계산 금융(Computational Finance), 내진 해석, 분자 모델링, 유전체학, 렌더링 및 기타 서버 측 GPU 컴퓨팅 워크로드에 이상적입니다. Tesla V100 GPU는 그래픽 모드를 지원하지 않습니다. 자세한 내용은 Amazon EC2 P3 인스턴스를 참조하십시오.

P3 인스턴스는 NVIDIA NVLink 피어 투 피어 전송을 지원합니다.

시스템에 대한 토폴로지 정보를 보려면 다음 명령을 실행합니다.

nvidia-smi topo -m

자세한 내용은 NVIDIA NVLink 단원을 참조하십시오.

P2 인스턴스

P2 인스턴스는 NVIDIA Tesla K80 GPU를 사용하며, CUDA 또는 OpenCL 프로그래밍 모델을 사용하는 일반 GPU 컴퓨팅에 맞게 설계되었습니다. P2 인스턴스는 고대역 네트워킹, 강력한 단일 정밀도 및 배정밀도 부동 소수점 기능, GPU당 12GiB의 메모리를 제공하므로, 딥 러닝, 그래프 데이터베이스, 고성능 데이터베이스, 전산 유체 역학(CFD), 계산 금융(Computational Finance), 내진 해석, 분자 모델링, 유전체학, 렌더링 및 기타 서버 GPU 컴퓨팅 워크로드에 이상적입니다.

P2 인스턴스는 NVIDIA GPUDirect 피어 투 피어 전송을 지원합니다.

시스템에 대한 토폴로지 정보를 보려면 다음 명령을 실행합니다.

nvidia-smi topo -m

자세한 내용은 NVIDIA GPUDirect 단원을 참조하십시오.

G3 인스턴스

G3 인스턴스는 NVIDIA Tesla M60 GPU를 사용하며 DirectX 또는 OpenGL을 사용하는 그래픽 애플리케이션을 위한 경제적이고도 높은 성능의 플랫폼을 제공합니다. 또한 G3 인스턴스는 해상도가 최대 4096x2160인 모니터 4대와 NVIDIA GRID 가상 애플리케이션을 지원하는 등 NVIDIA GRID 가상 워크스테이션 기능도 제공합니다. G3 인스턴스는 3D 가상화, 그래픽 집약적인 원격 워크스테이션, 3D 렌더링, 비디오 인코딩, 가상 현실 및 기타 서버 측 그래픽 워크로드 같이 뛰어난 병렬 처리 성능이 필요한 애플리케이션에 적합합니다.

G3 인스턴스는 NVIDIA GRID 가상 워크스테이션 및 NVIDIA GRID 가상 애플리케이션을 지원합니다. 이러한 기능들 중 하나를 활성화하는 방법은 NVIDIA GRID 가상 애플리케이션 활성화(G3 인스턴스만 해당) 단원을 참조하십시오.

G2 인스턴스

G2 인스턴스는 NVIDIA GRID K520 GPU를 사용하며 DirectX 또는 OpenGL을 사용하는 그래픽 애플리케이션을 위한 경제적이고도 높은 성능의 플랫폼을 제공합니다. 또한 NVIDIA GRID GPU는 NVIDIA의 빠른 캡처 기능을 지원하고 API 연산을 인코딩합니다. 애플리케이션의 예로는 비디오 제작 서비스, 3D 가상화, 스트리밍 그래픽 집약적 애플리케이션 및 기타 서버 측 그래픽 워크로드 등을 들 수 있습니다.

하드웨어 사양

다음은 액셀러레이티드 컴퓨팅 인스턴스용 하드웨어 사양의 요약 설명입니다.

인스턴스 유형 기본 vCPU 메모리(GiB) 액셀러레이터
p2.xlarge 4 61 1
p2.8xlarge 32 488 8
p2.16xlarge 64 732 16
p3.2xlarge 8 61 1
p3.8xlarge 32 244 4
p3.16xlarge 64 488 8
p3dn.24xlarge 96 768 8
g2.2xlarge 8 15 1
g2.8xlarge 32 60 4
g3s.xlarge 4 30.5 1
g3.4xlarge 16 122 1
g3.8xlarge 32 244 2
g3.16xlarge 64 488 4
f1.2xlarge 8 122 1
f1.4xlarge 16 244 2
f1.16xlarge 64 976 8

Amazon EC2 인스턴스 유형별 하드웨어 사양에 대한 자세한 내용은 Amazon EC2 인스턴스 유형 단원을 참조하십시오.

CPU 옵션 지정에 대한 자세한 내용은 CPU 옵션 최적화 단원을 참조하십시오.

인스턴스 성능

인스턴스에서 최고의 성능을 달성하기 위해 수행할 수 있는 몇 가지 GPU 설정 최적화가 있습니다. 자세한 내용은 GPU 설정 최적화 단원을 참조하십시오.

EBS에 최적화된 인스턴스를 사용하면 Amazon EBS I/O와 인스턴스의 다른 네트워크 간의 경합을 제거하여 EBS 볼륨에 대해 일관되게 우수한 성능을 제공할 수 있습니다. 일부 액셀러레이티드 컴퓨팅 인스턴스는 추가 비용 없이도 EBS에 최적화할 수 있게 기본 설정되어 있습니다. 자세한 내용은 Amazon EBS–EBS 최적화 인스턴스 단원을 참조하십시오.

일부 액셀러레이티드 컴퓨팅 인스턴스 유형은 Linux에서 프로세서 C 상태 및 P 상태를 제어할 수 있는 기능을 제공합니다. C 상태는 유휴 상태일 때 코어가 진입하는 절전 수준을 제어하고, P 상태는 코어의 성능(CPU 주파수)을 제어합니다. 자세한 내용은 EC2 인스턴스에 대한 프로세서 상태 제어 단원을 참조하십시오.

네트워크 성능

지원되는 인스턴스 유형에서 향상된 네트워킹 기능을 활성화할 수 있습니다. 향상된 네트워킹을 통해 PPS(Packet Per Second) 성능이 크게 높아지고, 네트워크 지터 및 지연 시간이 낮아집니다. 자세한 내용은 Linux에서 향상된 네트워킹 단원을 참조하십시오.

향상된 네트워킹을 지원하는 데 ENA(Elastic Network Adapter)를 사용하는 인스턴스 유형은 일관되게 낮은 지연 시간과 함께 높은 초당 패킷 성능을 제공합니다. 대부분의 애플리케이션은 항시 높은 수준의 네트워크 성능을 필요로 하지 않지만, 데이터를 주고 받을 때 넓은 대역폭에 액세스할 수 있을 경우 유익할 수 있습니다. ENA를 사용하고 "최대 10Gbps" 또는 "최대 25Gbps"의 네트워크 성능으로 기록된 인스턴스 크기는 네트워크 I/O 크레딧 메커니즘을 사용하여 평균 대역폭 이용률에 따라 네트워크 대역폭을 인스턴스에 할당합니다. 이러한 인스턴스의 네트워크 대역폭이 기준 한도 미만으로 떨어지면 크레딧이 발생하는데, 이 크레딧은 네트워크 데이터를 전송할 때 사용할 수 있습니다.

다음은 향상된 네트워킹을 지원하는 액셀러레이티드 컴퓨팅 인스턴스를 위한 네트워크 성능의 요약 설명입니다.

인스턴스 유형 네트워크 성능 향상된 네트워킹

f1.2xlarge | f1.4xlarge | g3.4xlarge | p3.2xlarge

최대 10Gbps

ENA

g3s.xlarge | g3.8xlarge | p2.8xlarge | p3.8xlarge

10Gbps

ENA

f1.16xlarge | g3.16.xlarge | g3.16.xlarge | p2.16xlarge | p3.16xlarge

25Gbps

ENA

p3dn.24xlarge

100Gbps

ENA

인스턴스 기능

액셀러레이티드 컴퓨팅 인스턴스를 위한 기능의 요약 설명입니다.

EBS 전용 NVMe EBS 인스턴스 스토어 배치 그룹

G2

아니요

아니요

SSD

G3

아니요

아니요

P2

아니요

아니요

P3

p3dn.24xlarge: 아니요

기타 모든 크기: 예

p3dn.24xlarge: 예

기타 모든 크기: 아니요

p3dn.24xlarge: NVMe *

SharePoint용 F1

아니요

아니요

NVMe *

* 루트 디바이스 볼륨은 Amazon EBS 볼륨이어야 합니다.

자세한 내용은 다음 단원을 참조하십시오.

출시 정보

  • HVM AMI를 사용해서 I 인스턴스를 실행해야 합니다.

  • GPU 기반 인스턴스는 NVIDIA 드라이버를 설치해야 GPU에 액세스할 수 있습니다.

  • 리전당 100개의 AFI 한도가 있습니다.

  • 실행할 수 있는 인스턴스의 수에 제한이 있습니다. 자세한 내용은 Amazon EC2 FAQ에서 Amazon EC2에서 실행 가능한 인스턴스 수를 참조하십시오. 이 제한을 높이도록 요청하려면 Amazon EC2 인스턴스 제한 증가 요청 양식을 사용하십시오.

GPU 기반의 가속 컴퓨팅 인스턴스용 AMI

NVIDIA 및 기타 업체에서는 쉽게 시작할 수 있도록 GPU 기반의 가속 컴퓨팅 인스턴스를 위한 AMI를 제공합니다. 이러한 참조 AMI에는 NVIDIA GPU의 기능과 성능을 완벽하게 발휘하도록 하는 NVIDIA 드라이버가 포함되어 있습니다.

NVIDIA 드라이버가 포함된 AMI 목록은 다음과 같이 AWS Marketplace를 검색하십시오.

모든 HVM AMI를 사용하여 액셀러레이티드 컴퓨팅 인스턴스를 시작할 수 있습니다.

중요

이러한 AMI에는 NVIDIA Corporation에서 개발, 소유 또는 제공하는 드라이버, 소프트웨어 또는 도구 키트가 포함되어 있습니다. 이러한 AMI를 사용할 경우 NVIDIA 드라이버, 소프트웨어 또는 도구 키트를 NVIDIA 하드웨어가 포함된 Amazon EC2 인스턴스에서만 사용하는 데 동의하는 것입니다.

NVIDIA 드라이버를 직접 설치할 수도 있습니다. 자세한 내용은 Linux 인스턴스에 NVIDIA 드라이버 설치 단원을 참조하십시오.