Istanze di elaborazione accelerata Linux - Amazon Elastic Compute Cloud

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Istanze di elaborazione accelerata Linux

Nota

Per le specifiche dettagliate del tipo di istanza, consulta la Amazon EC2 Instance Types Guide. Per informazioni sui prezzi, consulta Tipi di istanza Amazon EC2.

Le istanze di elaborazione accelerata utilizzano gli acceleratori hardware, o coprocessori, per eseguire alcune funzioni (come calcolo dei numeri a virgola mobile, elaborazione grafica o corrispondenza dei modelli di dati) in modo più efficace rispetto a quanto possibile con il software eseguito sulle CPU. Queste istanze consentono un maggiore parallelismo per un più elevato throughput sui carichi di lavoro a uso intensivo delle capacità di calcolo.

Se hai bisogno di un'elevata capacità di elaborazione, potrai trarre vantaggio dalle istanze di elaborazione accelerata, che forniscono l'accesso agli acceleratori di calcolo basati su hardware, come le unità di elaborazione grafica (GPU), i Field Programmable Gate Array (FPGA) o AWS Inferentia.

Istanze GPU

Le istanze basate su GPU forniscono l'accesso alle GPU NVIDIA con migliaia di componenti di calcolo. Puoi utilizzare queste istanze per accelerare le applicazioni scientifiche, tecniche e di rendering sfruttando i framework di elaborazione in parallelo CUDA o Open Computing Language (OpenCL). Puoi utilizzarle anche per le applicazioni grafiche, inclusi i giochi e le applicazioni 3D in streaming e altri carichi di lavoro grafici.

Istanze G5

Le istanze G5 utilizzano GPU NVIDIA A10G e forniscono prestazioni elevate per applicazioni ad uso intensivo di grafica come workstation remote, rendering video e giochi su cloud e modelli di Deep Learning per applicazioni come elaborazione del linguaggio naturale, visione artificiale e motori di raccomandazione. Queste istanze sono dotate di un massimo di 8 GPU NVIDIA A10G, processori AMD EPY di seconda generazione, fino a 100 Gbps di larghezza di banda della rete e fino a 7,6 TB di spazio di archiviazione SSD NVMe locale.

Per ulteriori informazioni, consultare Istanze G5 Amazon EC2.

Istanze G5g

Le istanze G5g utilizzano GPU NVIDIA T4G e forniscono prestazioni elevate per applicazioni ad uso intensivo di grafica come i giochi in streaming e il rendering che sfruttano le API standard del settore, come OpenGL e Vulkan. Queste istanze sono adatte anche per l'esecuzione di modelli di Deep Learning per applicazioni come l'elaborazione del linguaggio naturale e la visione artificiale. Queste istanze dispongono di un massimo di 2 GPU NVIDIA T4G Tensor Core, processori AWS Graviton2 e una larghezza di banda di rete fino a 25 Gbps.

Per ulteriori informazioni, consultare Istanze Amazon EC2 G5g.

Istanze G4ad e G4dn

Le istanze G4ad utilizzano GPU AMD Radeon Pro V520 e processori AMD EPYC di seconda generazione e sono particolarmente adatte per applicazioni grafiche come workstation grafiche remote, streaming di giochi e rendering che sfruttano API standard del settore come OpenGL, DirectX e Vulkan. Forniscono fino a 4 GPU AMD Radeon Pro V520, 64 vCPU, rete a 25 Gbps e archiviazione SSD NVMe locale da 2,4 TB.

Le istanze G4dn utilizzano le GPU NVIDIA Tesla e offrono una piattaforma economica a prestazioni elevate per l'elaborazione generale su GPU che utilizza framework di machine learning o CUDA, insieme ad applicazioni grafiche che utilizzano DirectX o OpenGL. Queste istanze offrono reti a banda larga, potenti capacità a virgola mobile a precisione dimezzata e singola, insieme a precisioni INT8 e INT4. Ogni GPU è dotata di 16 GiB di memoria GDDR6, il che rende le istanze G4dn appropriate all'inferenza del machine learning, alla transcodifica video e ad applicazioni grafiche come workstation grafiche remote e streaming dei giochi nel cloud.

Per ulteriori informazioni, consulta Istanze G4 Amazon EC2.

Le istanze G4dn supportano NVIDIA GRID Virtual Workstation. Per ulteriori informazioni, consulta le offerte NVIDIA sul Marketplace.

Istanze G3

Queste istanze utilizzano le GPU NVIDIA Tesla M60 e offrono una piattaforma a elevate prestazioni e conveniente per le applicazioni grafiche che impiegano DirectX o OpenGL. Le istanze G3 forniscono inoltre caratteristiche di NVIDIA GRID Virtual Workstation, come il supporto di quattro monitor con risoluzione fino a 4096x2160, e NVIDIA GRID Virtual Applications. Le istanze G3 sono adatte ad applicazioni quali visualizzazioni 3D, workstation remote a uso intensivo di grafica, rendering 3D, codifica video, realtà virtuale e altri carichi di lavoro grafici lato server che richiedono una massiccia potenza di elaborazione in parallelo.

Per ulteriori informazioni consulta Istanze G3 Amazon EC2.

Le istanze G3 supportano NVIDIA GRID Virtual Workstation e NVIDIA GRID Virtual Applications. Per attivare una di queste caratteristiche, consultare Attivazione delle applicazioni NVIDIA GRID Virtual.

Istanze G2

Queste istanze utilizzano le GPU NVIDIA GRID K520 e offrono una piattaforma a elevate prestazioni e conveniente per le applicazioni grafiche che impiegano DirectX o OpenGL. Le GPU NVIDIA GRID supportano inoltre le operazioni di acquisizione rapida e codifica API di NVIDIA. Applicazioni di esempio includono i servizi di creazione video, le visualizzazioni 3D, le applicazioni a uso intensivo di grafica in streaming e altri carichi di lavoro grafici lato server.

Istanze P5

Le istanze P5 forniscono 8 GPU NVIDIA H100 con 640 GB di memoria GPU a larghezza di banda elevata. Sono dotati di processori AMD EPYC di terza generazione e forniscono 2 TB di memoria di sistema, 30 TB di storage locale su istanze NVMe, larghezza di banda di rete aggregata di 3.200 Gps e supporto GPUDirect RDMA. Le istanze P5 supportano anche la tecnologia Amazon UltraCluster EC2, che offre una latenza inferiore e prestazioni di rete migliorate utilizzando EFA. Per i carichi di lavoro di machine learning e HPC, le istanze P5 offrono prestazioni fino a 6 volte superiori rispetto alle istanze GPU della generazione precedente.

Le istanze P5 possono accelerare un'ampia gamma di carichi di lavoro basati su GPU e sono ideali per applicazioni di machine learning distribuite su larga scala e di elaborazione ad alte prestazioni.

Per ulteriori informazioni consulta Istanze P5 di Amazon EC2.

Istanze P4d

Queste istanze utilizzano GPU NVIDIA A100 e forniscono una piattaforma ad alte prestazioni per carichi di lavoro HPC e Machine Learning. Le istanze P4d offrono 400 Gbps di supporto e throughput della larghezza di banda di rete aggregata, Elastic Fabric Adapter (EFA) (EFA). Sono le prime istanze EC2 a fornire più schede di rete.

Per ulteriori informazioni, consulta Istanze P4d Amazon EC2.

Le istanze P4d supportano l'interconnessione GPU NVIDIA NVSwitch e NVIDIA GPUDirect RDMA.

Le istanze P4de offrono GPU NVIDIA 80GB-A100s

Istanze P3

Queste istanze utilizzano le GPU NVIDIA Tesla V100 e sono progettate per l'elaborazione di GPU a scopo generico utilizzando i modelli di programmazione CUDA o OpenCL oppure tramite un framework di machine learning. Le istanze P3 offrono servizi di rete a elevata larghezza di banda, potenti capacità relative alla virgola mobile a metà, singola e doppia precisione e fino a 32 GiB di memoria per GPU, rendendole ideali per il deep learning, la fluidodinamica computazionale, la finanza computazionale, l'analisi sismica, la modellazione molecolare, la genomica, il rendering e altri carichi di lavoro di elaborazione GPU lato server. Le GPU Tesla V100 non supportano la modalità grafica.

Per ulteriori informazioni consulta Istanze P3 Amazon EC2.

Le istanze P3 supportano i trasferimenti peer-to-peer di NVIDIA NVLink. Per ulteriori informazioni, consulta NVIDIA NVLink.

Istanze P2

Le istanze P2 utilizzano le GPU NVIDIA Tesla K80 e sono progettate per l'elaborazione di GPU a scopo generico utilizzando i modelli di programmazione CUDA o OpenCL. Le istanze P2 offrono servizi di rete a elevata larghezza di banda, potenti capacità relative alla virgola mobile a singola e doppia precisione e 12 GiB di memoria per GPU, rendendole ideali per il deep learning, i database grafici, i database a elevate prestazioni, la fluidodinamica computazionale, la finanza computazionale, l'analisi sismica, la modellazione molecolare, la genomica, il rendering e altri carichi di lavoro di elaborazione GPU lato server.

Le istanze P2 supportano i trasferimenti peer-to-peer di NVIDIA GPUDirect. Per ulteriori informazioni, consulta NVIDIA GPUDirect.

Istanze AWS con Trainium

Le istanze Trn1 e Trn1n di Amazon EC2 con tecnologia AWS Trainium sono concepite appositamente per l'addestramento del deep learning ad alte prestazioni ed economicamente conveniente. Puoi utilizzare le istanze Trn1 e Trn1n per addestrare modelli per l'elaborazione del linguaggio naturale, la visione artificiale e la funzione di suggerimento utilizzati in un'ampia gamma di applicazioni, ad esempio riconoscimento vocale, suggerimenti, rilevamento di frodi e classificazione di immagini e video. Usa i flussi di lavoro esistenti nei framework ML più diffusi, come e. PyTorch TensorFlow AWS Neuron SDK si integra perfettamente con questi framework in modo da fare i primi passi modificando solo poche righe di codice.

Per ulteriori informazioni, consulta le istanze Amazon EC2 Trn1.

Istanze con Inferentia AWS

Queste istanze sono progettate per accelerare il machine learning mediante AWS Inferentia, un chip IA/ML personalizzato di Amazon che fornisce prestazioni elevate e inferenza di machine learning a bassa latenza. Queste istanze sono ottimizzate per la distribuzione di modelli di Deep Learning (DL) per applicazioni, quali l'elaborazione del linguaggio naturale, il rilevamento e la classificazione degli oggetti, la personalizzazione e il filtro dei contenuti e il riconoscimento vocale.

È possibile iniziare in diversi modi:

  • Use SageMaker, un servizio completamente gestito che è il modo più semplice per iniziare a utilizzare i modelli di machine learning. Per ulteriori informazioni, consulta la sezione Get Started with SageMaker nella Amazon SageMaker Developer Guide.

  • Avvia un'istanza Inf1 o Inf2 utilizzando l'AMI Deep Learning. Per ulteriori informazioni, consulta AWS Inferentia con DLAMI nella Guida per gli sviluppatori di AWS Deep Learning AMI .

  • Avvia un'istanza Inf1 o Inf2 utilizzando la tua AMI e installa l'SDK AWS Neuron, che consente di compilare, eseguire e profilare modelli di deep learning per AWS Inferentia.

  • Avvia un'istanza di container utilizzando un'istanza Inf1 o Inf2 e un'AMI ottimizzata per Amazon ECS. Per ulteriori informazioni, consulta AMI Amazon Linux 2 (Inferentia) in Amazon Elastic Container Service Developer Guide.

  • Creare un cluster Amazon EKS con nodi che eseguono istanze Inf1. Per maggiori informazioni, consulta Supporto Inferentia nella Guida per l'utente di Amazon EKS.

Per ulteriori informazioni, consulta Machine Learning on AWS.

Istanze Inf1

Le istanze Inf1 utilizzano chip di AWS inferenza per l'apprendimento automatico Inferentia. Inferentia è stato sviluppato per fornire prestazioni di inferenza a bassa latenza a un costo estremamente contenuto su qualsiasi scala.

Per ulteriori informazioni, consulta Istanze Inf1 di Amazon EC2.

Istanze Inf2

Le istanze Inf2 utilizzano chip di inferenza per l'apprendimento automatico Inferentia2. AWS Queste istanze di seconda generazione offrono un miglioramento fino al 25% rispetto alle istanze Inf1 e fino al 70% migliori cost-per-inference rispetto alle istanze cost-per-inference Amazon EC2 comparabili. Queste istanze sono ideali per diversi tipi di carichi di lavoro che utilizzano modelli di deep learning.

Per ulteriori informazioni, consulta Istanze Inf2 di Amazon EC2.

Istanze con acceleratori Habana

Queste istanze sono progettate per accelerare i carichi di lavoro di formazione del modello di deep learning (DL). Usano gli acceleratori di Habana Labs, una società Intel. Queste istanze sono ottimizzate per i modelli DL per applicazioni quali il riconoscimento delle immagini, il rilevamento e la classificazione degli oggetti e i sistemi di raccomandazione.

Per ulteriori informazioni, consulta Machine Learning on AWS.

Istanze DL1

Le istanze DL1 utilizzano acceleratori Habana Gaudi. Offrono fino a 400 Gb/s di larghezza di banda aggregata di rete, insieme a 32 GB di memoria ad alta larghezza di banda (HBM) per acceleratore. Le istanze DL1 sono progettate per fornire prestazioni elevate ed efficienza nei costi per i modelli di deep learning di formazione.

È possibile iniziare in diversi modi:

  • Avvio di un'istanza DL1 utilizzando l'AMI di Deep Learning Habana.

  • Avviare un'istanza DL1 utilizzando il proprio AMI e installare il Driver Habana e Habana SynapseAI SDK.

  • Avviare un'istanza di container utilizzando un'istanza DL1 e un'AMI ottimizzata Amazon ECS.

  • Creare un cluster Amazon EKS con nodi che eseguono istanze DL1.

Per ulteriori informazioni consulta Istanze DL1 Amazon EC2.

Istanze con acceleratori Qualcomm

DL2q

Le istanze DL2q utilizzano acceleratori di inferenza Qualcomm AI100, dotati di core Qualcomm Edge AI di settima generazione. Possono essere utilizzate per implementare in modo economico carichi di lavoro di deep learning (DL) nel cloud o convalidare le prestazioni e la precisione dei carichi di lavoro DL che verranno implementati sui dispositivi edge Qualcomm.

Le istanze DL2q supportano fino a 1,4 petaFLOP di prestazioni di machine learning con 8 acceleratori Qualcomm AI100, 96 vCPU su due CPU Intel Cascade Lake, 768 GB di memoria di sistema e 100 Gb/s di larghezza di banda della rete. Ogni acceleratore Qualcomm AI100 offre fino a 175 TFLOP di prestazioni FP16 e 16 GB di memoria di accelerazione.

Le istanze DL2q sono ideali per convalidare i carichi di lavoro Edge AI prima di implementarli su smartphone, automobili, robotica e visori per realtà estesa. Supportano anche l'inferenza cloud per eseguire le applicazioni DL più diffuse, come la generazione di contenuti, l'analisi delle immagini, il riepilogo del testo e gli assistenti virtuali.

Per iniziare a usare le istanze DL2q, ti consigliamo di utilizzare il Deep AWS Learning AMI (DLAMI), che viene fornito preconfezionato con il kit di sviluppo software (SDK) Qualcomm Apps and Platform, e i framework di machine learning più diffusi, come e. PyTorch TensorFlow

Per ulteriori informazioni, consulta Istanze DL2q di Amazon EC2.

Istanze di transcodifica video

Queste istanze sono progettate per accelerare i carichi di lavoro di transcodifica video, come trasmissioni in diretta, videoconferenze e transcodifica. just-in-time

Istanze VT1

Le istanze VT1 sono dotate di acceleratori multimediali Xilinx Alveo U30 e sono progettate per carichi di lavoro di transcodifica video dal vivo. Queste istanze offrono fino a 8 schede di accelerazione Xilinx Alveo U30, forniscono fino a 192 GB di memoria di sistema e fino a 25 Gb/s di larghezza di banda di rete. Le istanze VT1 dispongono di codec H.264/AVC e H.265/HEVC e supportano risoluzioni fino a 4K UHD per la transcodifica video multi-stream.

È possibile iniziare in diversi modi:

  • Avvia un'istanza VT1 utilizzando le AMI Xilinx U30 attive. Marketplace AWS

  • Avviare un'istanza VT1 utilizzando il proprio AMI e installare Driver Xilinx U30 e SDK video Xilinx.

  • Avviare un'istanza di container utilizzando un'istanza VT1 e un'AMI ottimizzata Amazon ECS.

  • Creare un cluster Amazon EKS con nodi che eseguono istanze VT1.

Per ulteriori informazioni consulta Istanze VT1 Amazon EC2.

Istanze FPGA

Le istanze basate su FPGA forniscono l'accesso a FPGA di grandi dimensioni con milioni di celle logiche di sistema in parallelo. Puoi utilizzare le istanze di calcolo accelerate basate su FPGA per accelerare i carichi di lavoro come genomica, analisi finanziaria, elaborazione di video in tempo reale, Big Data e strumenti di analisi e carichi di lavoro di sicurezza sfruttando le accelerazioni hardware personalizzate. Puoi sviluppare tali accelerazioni tramite i linguaggi descrittivi hardware (HDL) come Verilog o VHDL oppure tramite linguaggi di livello superiore come i framework di elaborazione in parallelo OpenCL. Puoi sviluppare un codice di accelerazione hardware personalizzato oppure acquistare le accelerazioni hardwaretramite la Marketplace AWS.

L'FPGA Developer AMI fornisce gli strumenti per lo sviluppo, il testing e la creazione di AFI. Puoi utilizzare l'FPGA Developer AMI su qualunque istanza EC2 con almeno 32 GB di memoria di sistema (ad esempio, istanze C5, M4 e R4).

Per ulteriori informazioni, consulta la documentazione del Kit di sviluppo hardware di FPGA AWS.

Istanze F1

Le istanze F1 utilizzano FPGA Xilinx UltraScale + VU9P e sono progettate per accelerare algoritmi ad alta intensità di calcolo, come il flusso di dati o le operazioni altamente parallele non adatte alle CPU generiche. Ogni FPGA in un'istanza F1 contiene circa 2,5 milioni di elementi logici e circa 6.800 motori Digital Signal Processing (DSP), oltre a 64 GiB di memoria protetta DDR ECC locale, connessi all'istanza tramite una connessione PCIe Gen3 x16 dedicata. Le istanze F1 forniscono volumi SSD NVMe.

Gli sviluppatori possono utilizzare l'AMI FPGA Developer e l' AWS Hardware Developer Kit per creare accelerazioni hardware personalizzate da utilizzare su istanze F1. L'FPGA Developer AMI include strumenti per lo sviluppo di FPGA a ciclo completo nel cloud. Grazie a questi strumenti, gli sviluppatori possono creare e condividere le Amazon FPGA Image (AFI) che possono essere caricate sull'FPGA di un'istanza F1.

Per ulteriori informazioni consulta Istanze F1 Amazon EC2.

Specifiche dell'hardware

Un'unità di elaborazione centrale virtuale (vCPU) rappresenta una parte della CPU fisica assegnata a una macchina virtuale (VM). Per le istanze x86, esistono due vCPU per core. Per le istanze Graviton, esiste una vCPU per core.

Per le specifiche hardware, consulta le istanze di elaborazione accelerata nella Amazon EC2 Instance Types Guide.

Prestazioni dell'istanza

Esistono molte ottimizzazioni delle impostazioni GPU che puoi effettuare per raggiungere le prestazioni ottimali sulle istanze. Per ulteriori informazioni, consulta Ottimizzare le impostazioni GPU.

Le istanze ottimizzate per EBS ti permettono di ottenere prestazioni costantemente elevate dei volumi EBS eliminando i conflitti tra I/O Amazon EBS e altro traffico di rete dalla tua istanza. Alcune istanze ottimizzate di calcolo accelerate sono ottimizzate per EBS per impostazione predefinita senza costi aggiuntivi. Per ulteriori informazioni, consulta Istanze ottimizzate per Amazon EBS.

Alcuni tipi di istanze di calcolo accelerate offrono la possibilità di controllare gli stati C e P del processore su Linux. Gli stati C controllano i livelli di sospensione che una memoria centrale può avere quando è inattiva, mentre gli stati P controllano le prestazioni desiderate (in base alla frequenza della CPU) di una memoria centrale. Per ulteriori informazioni, consulta Controllo degli stati del processore dell'istanza EC2.

Prestazioni di rete

Puoi abilitare una rete avanzata sui tipi di istanze supportati per fornire latenze inferiori, minore jitter di rete e prestazioni (PPS) più elevate packet-per-second . La maggior parte delle applicazioni non ha sempre bisogno di un alto livello di prestazioni di rete, ma può sfruttare i vantaggi di una maggiore larghezza di banda per l'invio o la ricezione dei dati. Per ulteriori informazioni, consulta Abilitazione delle reti avanzate su Linux.

Per le specifiche di rete, consulta le istanze di elaborazione accelerata nella Amazon EC2 Instance Types Guide.

Prestazioni I/O di Amazon EBS

Un'istanza ottimizzata per Amazon EBS utilizza uno stack di configurazione ottimizzato e offre capacità aggiuntiva dedicata per l'I/O di Amazon EBS. Questa ottimizzazione offre prestazioni ottimali ai volumi Amazon EBS, riducendo al minimo i conflitti tra l'I/O di Amazon EBS e altro traffico proveniente dall'istanza.

Per ulteriori informazioni, consulta Istanze ottimizzate per Amazon EBS.

Prestazioni I/O dei volumi dell'archivio dell'istanza basati su SSD

I volumi instance store sono persistenti solo per il ciclo di vita dell'istanza. Quando arresti,congeli o interrompi un'istanza, le applicazioni e i dati nei relativi volumi instance store vengono cancellati. Consigliamo di eseguire regolarmente dei backup o delle repliche dei dati importanti contenuti nei volumi instance store. Per ulteriori informazioni, consultare Instance store Amazon EC2 e Volumi di instance store SSD.

Ad esempio, le specifiche del volume di archiviazione, consulta le istanze di calcolo accelerato nella Amazon EC2 Instance Types Guide.

Mano a mano che riempi i volumi instance store basati su SSD della tua istanza, il numero di IOPS di scrittura che puoi raggiungere diminuisce. Questa riduzione è dovuta al lavoro aggiuntivo che il controller SSD deve svolgere per individuare spazio disponibile, riscrivere i dati esistenti e cancellare lo spazio inutilizzato in modo che possa essere riscritto. Questo processo di garbage collection produce un'amplificazione della scrittura interna dell'SSD, espressa come il rapporto delle operazioni di scrittura dell'SSD e le operazioni di scrittura dell'utente. La riduzione delle prestazioni è ancora maggiore se le operazioni di scrittura non sono in multipli di 4.096 byte o non sono allineate con il limite di 4.096 byte. Se scrivi una quantità inferiore di byte o di byte non allineati, il controller SSD deve leggere i dati circostanti e archiviare il risultato in una nuova posizione. Questo modello comporta un'amplificazione della scrittura notevolmente maggiore, una latenza maggiore e una riduzione drastica delle prestazioni di I/O.

I controller SSD possono utilizzare svariate strategie per ridurre l'impatto dell'amplificazione della scrittura. Una di queste strategie è di riservare spazio nell'archiviazione dell'istanza SSD in modo che il controller possa gestire più efficacemente lo spazio disponibile per le operazioni di scrittura. Si tratta dell'over-provisioning. I volumi di instance store basati su SSD forniti a un'istanza non dispongono di spazio riservato per l'over-provisioning. Per ridurre l'amplificazione in scrittura, si consiglia di lasciare il 10 percento del volume non partizionato in modo che il controller SSD possa utilizzarlo per l'over-provisioning. In questo modo, l'archiviazione che si può utilizzare diminuisce, ma aumentano le prestazioni anche se il disco è prossimo alla capacità completa.

Ad esempio, archivia volumi che supportano TRIM, puoi utilizzare il comando TRIM per notificare al controller SSD ogni volta che non hai più bisogno dei dati che hai scritto. Il controller avrà così più spazio libero, l'amplificazione della scrittura potrà ridursi e le prestazioni aumentare. Per ulteriori informazioni, consulta Supporto TRIM per i volumi di instance store.

Note di rilascio

  • Per ottenere prestazioni ottimali con le istanze P5, ti consigliamo di effettuare le seguenti operazioni:

  • È necessario avviare l'istanza tramite un'AMI HVM.

  • Le istanze basate sul Sistema Nitro presentano i seguenti requisiti:

    Le seguenti AMI Linux soddisfano questi requisiti:

    • AL2023

    • Amazon Linux 2

    • AMI Amazon Linux 2018.03 e versioni successive

    • Ubuntu 14.04 o versioni successive con kernel linux-aws

      Nota

      AWS I tipi di istanza basati su Graviton richiedono Ubuntu 18.04 o versione successiva con kernel linux-aws

    • Red Hat Enterprise Linux 7.4 o versioni successive

    • SUSE Linux Enterprise Server 12 SP2 o versioni successive

    • CentOS 7.4.1708 o versioni successive

    • FreeBSD 11.1 o versioni successive

    • Debian GNU/Linux 9 o versioni successive

  • Le istanze basate su GPU non possono accedere alla GPU se non sono installati i driver NVIDIA. Per ulteriori informazioni, consulta Installare i driver NVIDIA nelle istanze Linux.

  • L'avvio di un'istanza bare metal riavvia il server sottostante, il che comporta la verifica di tutti i componenti hardware e firmware. Ciò significa che ci vogliono 20 minuti dal momento in cui l'istanza entra in stato di esecuzione affinché diventi disponibile sulla rete.

  • Per collegare o scollegare volumi EBS o interfacce di rete secondarie da un'istanza bare metal è richiesto il supporto dell'hotplug nativo PCIe. Amazon Linux 2 e le versioni più recenti dell'AMI Amazon Linux supportano l'hotplug nativo PCIe, a differenza delle versioni precedenti. Devi abilitare le seguenti opzioni di configurazione del kernel Linux:

    CONFIG_HOTPLUG_PCI_PCIE=y CONFIG_PCIEASPM=y
  • Le istanze bare metal utilizzano un dispositivo seriale basato su PCI anziché basato su porte I/O. Il kernel Linux upstream e le ultime AMI Linux Amazon supportano questo dispositivo. Le istanze bare metal offrono anche una tabella ACPI SPCR per abilitare il sistema all'utilizzo automatico del dispositivo seriale basato su PCI. Le ultime AMI Windows utilizzano automaticamente il dispositivo seriale basato su PCI.

  • C'è un limite di 100 AFI per regione.

  • Esistono limiti per il numero totale di istanze che è possibile avviare in una regione, nonché limiti aggiuntivi per alcuni tipi di istanza. Per ulteriori informazioni, consulta Quante istanze è possibile eseguire in Amazon EC2? nelle domande frequenti di Amazon EC2.