Prestazioni di Amazon FSx for Lustre - FSx per Lustre

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Prestazioni di Amazon FSx for Lustre

Amazon FSx for Lustre, basato su Lustre, il popolare file system ad alte prestazioni, offre prestazioni di scalabilità orizzontale che aumentano linearmente con le dimensioni di un sistema di file. I file system Lustre si scalano orizzontalmente su più file server e dischi. Questa scalabilità offre a ciascun client l'accesso diretto ai dati archiviati su ciascun disco per eliminare molti dei colli di bottiglia presenti nei file system tradizionali. Amazon FSx for Lustre si basa sull'architettura scalabile di Lustre per supportare alti livelli di prestazioni su un gran numero di client.

Come funzionano i file system FSx for Lustre

Ogni file system FSx for Lustre è costituito dai file server con cui i client comunicano e da un set di dischi collegati a ciascun file server che archivia i dati. Ogni file server utilizza una cache veloce in memoria per migliorare le prestazioni dei dati a cui si accede con maggiore frequenza. È inoltre possibile dotare i file system basati su HDD di una cache di lettura basata su SSD per migliorare ulteriormente le prestazioni dei dati a cui si accede con maggiore frequenza. Quando un client accede ai dati archiviati nella cache in memoria o SSD, il file server non ha bisogno di leggerli dal disco, il che riduce la latenza e aumenta la quantità totale di throughput che è possibile gestire. Il diagramma seguente illustra i percorsi di un'operazione di scrittura, un'operazione di lettura eseguita dal disco e un'operazione di lettura eseguita dalla cache in memoria o SSD.

Architettura ad alte prestazioni FSx for Lustre.

Quando si leggono i dati archiviati nella cache in memoria o SSD del file server, le prestazioni del file system sono determinate dalla velocità di trasmissione della rete. Quando si scrivono dati sul file system o quando si leggono dati che non sono archiviati nella cache in memoria, le prestazioni del file system sono determinate dalla riduzione del throughput di rete e del disco.

Quando si effettua il provisioning di un file system HDD Lustre con una cache SSD, Amazon FSx crea una cache SSD che viene automaticamente ridimensionata al 20 percento della capacità di storage HDD del file system. In questo modo si ottengono latenze inferiori al millisecondo e IOPS più elevati per i file a cui si accede di frequente.

Prestazioni aggregate del file system

Il throughput supportato da un file system FSx for Lustre è proporzionale alla sua capacità di archiviazione. I file system Amazon FSx for Lustre sono scalabili fino a centinaia di GBps di throughput e milioni di IOPS. Amazon FSx for Lustre supporta anche l'accesso simultaneo allo stesso file o directory da migliaia di istanze di calcolo. Questo accesso consente il checkpoint rapido dei dati dalla memoria dell'applicazione allo storage, una tecnica comune nell'High Performance Computing (HPC). È possibile aumentare la quantità di storage e la capacità di throughput in base alle esigenze in qualsiasi momento dopo la creazione del file system. Per ulteriori informazioni, consulta Gestione della capacità di archiviazione.

I file system FSx for Lustre forniscono un throughput di lettura a raffica utilizzando un meccanismo di credito I/O di rete per allocare la larghezza di banda della rete in base all'utilizzo medio della larghezza di banda. I file system accumulano crediti quando l'utilizzo della larghezza di banda di rete è inferiore ai limiti di base e possono utilizzarli quando eseguono trasferimenti di dati in rete.

Le tabelle seguenti mostrano le prestazioni per cui sono progettate le opzioni di implementazione di FSx for Lustre.

Prestazioni del file system per le opzioni di archiviazione SSD
Tipo di distribuzione Throughput di rete (MB/s/TiB di storage fornito) IOPS di rete (IOPS/TiB di storage fornito) Archiviazione cache (GiB di RAM/TiB di storage fornito) Latenze del disco per operazione su file (millisecondi, P50) Velocità effettiva del disco (Mbps/TiB di storage o cache SSD fornita)

Linea di base

Scoppio

Linea di base

Scoppio

GRATTO_2 200 1300

Decine di migliaia di valori base

Centinaia di migliaia sono scoppiate

6.7

Metadati: sub-ms

Dati: sub-ms

200 (letto)

100 (scrittura)

PERSISTENTE -125 320 1300 3.4

125

500
PERSISTENTE-250 640 1300 6.8

250

500
PERSISTENTE-500 1300 13.7 500

PERSISTENTE - 1000 2600 27,3 1000
Prestazioni del file system per le opzioni di archiviazione su HDD
Tipo di distribuzione Throughput di rete (MB/s/TiB di storage o cache SSD fornita) IOPS di rete (IOPS/TiB di storage fornito) Archiviazione cache (GiB di RAM/TiB di storage fornito) Latenze del disco per operazione su file (millisecondi, P50) Velocità effettiva del disco (Mbps/TiB di storage o cache SSD fornita)

Linea di base

Scoppio

Linea di base

Scoppio

PERSISTENTE-12
archiviazione HDD 40 375*

Decine di migliaia di valori base

Centinaia di migliaia sono scoppiate

0,4 memoria

Metadati: sub-ms

Dati: ms a una cifra

12

80 (letto)

50 (scrittura)

Cache di lettura SSD

200

1.900

200 cache SSD

Dati: sub-ms

200

-

PERSISTENTE-40
archiviazione HDD 150 1.300*

Decine di migliaia di valori base

Centinaia di migliaia sono scoppiate

1.5

Metadati: sub-ms

Dati: ms a una cifra

40

250 (letto)

150 (scrittura)

Cache di lettura SSD

750

6500

200 cache SSD

Dati: sub-ms

200

-

Prestazioni del file system per le opzioni di storage SSD della generazione precedente
Tipo di distribuzione Throughput di rete (MB/s per TiB di storage fornito) IOPS di rete (IOPS per TiB di storage fornito) Archiviazione cache (GiB per TiB di storage fornito) Latenze su disco per operazione su file (millisecondi, P50) Velocità effettiva del disco (MB/s per TiB di storage o cache SSD fornita)

Linea di base

Scoppio

Linea di base

Scoppio

PERSISTENTE-50 250 1.300*

Decine di migliaia di valori base

Centinaia di migliaia sono scoppiate

2,2 RAM

Metadati: sub-ms

Dati: sub-ms

50

240

PERSISTENTE-100 500 1.300* 4,4 RAM 100 240
PERSISTENTE-200 750 1.300* 8,8 RAM 200 240
Nota

*I file system persistenti nei seguenti paesi Regioni AWS forniscono un'espansione della rete fino a 530 MB/s per TiB di storage: Africa (Città del Capo), Asia Pacifico (Hong Kong), Asia Pacifico (Osaka), Asia Pacifico (Singapore), Canada (Centrale), Europa (Francoforte), Europa (Londra), Europa (Milano), Europa (Stoccolma), Medio Oriente (Bahrein), Sud America (San Paolo), Cina e Stati Uniti Ovest (Los Angeles).

Esempio: velocità effettiva aggregata di base e burst

L'esempio seguente illustra in che modo la capacità di storage e la velocità effettiva del disco influiscono sulle prestazioni del file system.

Un file system persistente con una capacità di storage di 4,8 TiB e 50 MB/s per TiB di throughput per unità di storage fornisce un throughput aggregato del disco di base di 240 MB/s e un throughput del disco burst di 1,152 GB/s.

Indipendentemente dalle dimensioni del file system, Amazon FSx for Lustre offre latenze coerenti inferiori al millisecondo per le operazioni sui file.

Prestazioni dei metadati del file system

Le operazioni di I/O al secondo (IOPS) dei metadati del file system determinano il numero di file e directory che è possibile creare, elencare, leggere ed eliminare al secondo. Gli IOPS dei metadati vengono forniti automaticamente sui file system FSx for Lustre in base alla capacità di storage fornita.

I file system Persistent_2 consentono di effettuare il provisioning degli IOPS dei metadati indipendentemente dalla capacità di storage e offrono una maggiore visibilità sul numero e sul tipo di metadati che le istanze client IOPS generano sul file system.

Con i file system FSx for Lustre Persistent_2, il numero di IOPS di metadati forniti e il tipo di operazione sui metadati determinano la velocità di operazioni sui metadati che il file system può supportare. Il livello di IOPS di metadati fornito determina il numero di IOPS assegnati per i dischi di metadati del file system.

Tipo di operazione Operazioni che è possibile eseguire al secondo per ogni IOPS di metadati fornito

Crea file, apri

2

Eliminazione di file

1

Creazione e ridenominazione della cartella

0.1

Eliminazione della directory

0.2

È possibile scegliere di effettuare il provisioning degli IOPS dei metadati utilizzando la modalità Automatica o la modalità User-provisioned. In modalità automatica, Amazon FSx effettua automaticamente il provisioning degli IOPS dei metadati in base alla capacità di storage del file system in base alla tabella seguente:

Capacità di storage del file system Metadati IOPS inclusi in modalità automatica

1200 GiB

1500

2400 GiB

3000

4800—9600 GiB

6000

12000—45600 GiB

12000

≥48000 GiB

12000 IOPS per 24000 GiB

In modalità User-provisioned, puoi facoltativamente scegliere di specificare il numero di IOPS di metadati da fornire. Paghi per gli IOPS di metadati assegnati in eccesso rispetto al numero predefinito di IOPS di metadati per il tuo file system.

Layout di archiviazione del file system

Tutti i dati dei file in Lustre sono archiviati in volumi di archiviazione denominati Object Storage Targets (OST). Tutti i metadati dei file (inclusi nomi di file, timestamp, autorizzazioni e altro) sono archiviati in volumi di archiviazione chiamati metadata targets (MDT). I file system Amazon FSx for Lustre sono composti da uno o più MDT e più OST. Ogni OST ha una dimensione di circa 1-2 TiB, a seconda del tipo di distribuzione del file system. Amazon FSx for Lustre distribuisce i dati dei file tra gli OST che compongono il file system per bilanciare la capacità di storage con il throughput e il carico IOPS.

Per visualizzare l'utilizzo dello storage dell'MDT e degli OST che costituiscono il file system, esegui il comando seguente da un client su cui è montato il file system.

lfs df -h mount/path

L'output di questo comando è simile al seguente.

UUID bytes Used Available Use% Mounted on mountname-MDT0000_UUID 68.7G 5.4M 68.7G 0% /fsx[MDT:0] mountname-OST0000_UUID 1.1T 4.5M 1.1T 0% /fsx[OST:0] mountname-OST0001_UUID 1.1T 4.5M 1.1T 0% /fsx[OST:1] filesystem_summary: 2.2T 9.0M 2.2T 0% /fsx

Stripaggio dei dati nel file system

È possibile ottimizzare le prestazioni di throughput del file system con lo striping dei file. Amazon FSx for Lustre distribuisce automaticamente i file tra i sistemi OST per garantire che i dati vengano serviti da tutti i server di storage. Puoi applicare lo stesso concetto a livello di file configurando il modo in cui i file vengono distribuiti su più OST.

Lo striping significa che i file possono essere suddivisi in più blocchi che vengono poi archiviati su OST diversi. Quando un file viene distribuito su più OST, le richieste di lettura o scrittura al file vengono distribuite tra tali OST, aumentando il throughput aggregato o gli IOPS che le applicazioni possono gestire.

Di seguito sono riportati i layout predefiniti per i file system Amazon FSx for Lustre.

  • Per i file system creati prima del 18 dicembre 2020, il layout predefinito specifica un numero di strisce pari a 1. Ciò significa che, a meno che non venga specificato un layout diverso, ogni file creato in Amazon FSx for Lustre utilizzando strumenti Linux standard viene archiviato su un singolo disco.

  • Per i file system creati dopo il 18 dicembre 2020, il layout predefinito è un layout di file progressivo in cui i file di dimensioni inferiori a 1 GiB vengono archiviati in un'unica striscia e ai file più grandi viene assegnato un numero di strisce pari a 5.

  • Per i file system creati dopo il 25 agosto 2023, il layout predefinito è un layout di file progressivo a 4 componenti, come spiegato in. Layout di file progressivi

  • Per tutti i file system, indipendentemente dalla data di creazione, i file importati da Amazon S3 non utilizzano il layout predefinito, ma utilizzano invece il layout nel parametro del ImportedFileChunkSize file system. I file importati da S3 più grandi di quelli ImportedFileChunkSize verranno archiviati su più OST con un numero di strisce pari a. (FileSize / ImportedFileChunksize) + 1 Il valore predefinito di è 1GiB. ImportedFileChunkSize

È possibile visualizzare la configurazione del layout di un file o di una directory utilizzando il lfs getstripe comando.

lfs getstripe path/to/filename

Questo comando riporta il numero di strisce, la dimensione e l'offset delle strisce di un file. Il numero di strisce è il numero di OST su cui è suddiviso il file. La dimensione dello stripe indica la quantità di dati continui archiviati su un OST. Lo stripe offset è l'indice del primo OST su cui è distribuito il file.

Modifica della configurazione dello striping

I parametri di layout di un file vengono impostati quando il file viene creato per la prima volta. Utilizzate il lfs setstripe comando per creare un nuovo file vuoto con un layout specificato.

lfs setstripe filename --stripe-count number_of_OSTs

Il lfs setstripe comando influisce solo sul layout di un nuovo file. Utilizzatelo per specificare il layout di un file prima di crearlo. Puoi anche definire un layout per una directory. Una volta impostato su una directory, tale layout viene applicato a ogni nuovo file aggiunto a quella directory, ma non ai file esistenti. Ogni nuova sottodirectory creata eredita anche il nuovo layout, che viene quindi applicato a qualsiasi nuovo file o directory creato all'interno di quella sottodirectory.

Per modificare il layout di un file esistente, utilizzate il comando. lfs migrate Questo comando copia il file secondo necessità per distribuirne il contenuto in base al layout specificato nel comando. Ad esempio, i file che vengono aggiunti o le cui dimensioni sono aumentate non modificano il numero di strisce, quindi è necessario migrarli per modificare il layout del file. In alternativa, è possibile creare un nuovo file utilizzando il lfs setstripe comando per specificarne il layout, copiare il contenuto originale nel nuovo file e quindi rinominare il nuovo file per sostituire il file originale.

In alcuni casi la configurazione di layout predefinita non è ottimale per il carico di lavoro. Ad esempio, un file system con decine di OST e un gran numero di file da più gigabyte può ottenere prestazioni migliori suddividendo i file su più del valore di numero di stripe predefinito di cinque OST. La creazione di file di grandi dimensioni con un numero di stripe basso può causare rallentamenti nelle prestazioni di I/O e può anche causare il riempimento degli OST. In questo caso, è possibile creare una directory con un numero maggiore di strisce per questi file.

La configurazione di un layout a strisce per file di grandi dimensioni (in particolare file di dimensioni superiori a un gigabyte) è importante per i seguenti motivi:

  • Migliora la velocità effettiva consentendo a più OST e ai server associati di contribuire con IOPS, larghezza di banda di rete e risorse CPU durante la lettura e la scrittura di file di grandi dimensioni.

  • Riduce la probabilità che un piccolo sottoinsieme di OST diventi hot spot che limitano le prestazioni complessive del carico di lavoro.

  • Impedisce che un singolo file di grandi dimensioni riempia un OST, causando probabilmente errori di riempimento del disco.

Non esiste un'unica configurazione di layout ottimale per tutti i casi d'uso. Per una guida dettagliata sui layout dei file, consulta Managing File Layout (Striping) and Free Space nella documentazione di Lustre.org. Le seguenti sono linee guida generali:

  • Il layout a strisce è particolarmente importante per i file di grandi dimensioni, specialmente per i casi d'uso in cui i file hanno normalmente dimensioni di centinaia di megabyte o più. Per questo motivo, il layout predefinito per un nuovo file system assegna un numero di strisce pari a cinque per i file di dimensioni superiori a 1 GiB.

  • Il numero di strisce è il parametro di layout da regolare per i sistemi che supportano file di grandi dimensioni. Il numero di strisce specifica il numero di volumi OST che conterranno porzioni di un file a strisce. Ad esempio, con un numero di strisce pari a 2 e una dimensione di banda di 1 MiB, Lustre scrive blocchi di file alternativi da 1 MiB su ciascuna delle due OST.

  • Il numero effettivo di strisce è il minore tra il numero effettivo di volumi OST e il valore di conteggio delle strisce specificato. È possibile utilizzare lo speciale valore di conteggio delle strisce -1 per indicare che le strisce devono essere posizionate su tutti i volumi OST.

  • L'impostazione di un numero elevato di strisce per file di piccole dimensioni non è ottimale perché per determinate operazioni Lustre richiede una rete di andata e ritorno per ogni OST del layout, anche se il file è troppo piccolo per occupare spazio su tutti i volumi OST.

  • È possibile impostare un layout progressivo dei file (PFL) che consenta di modificare il layout di un file con le dimensioni. Una configurazione PFL può semplificare la gestione di un file system con una combinazione di file grandi e piccoli senza dover impostare esplicitamente una configurazione per ogni file. Per ulteriori informazioni, consulta Layout di file progressivi.

  • La dimensione predefinita di Stripe è 1 MiB. L'impostazione di un offset a strisce può essere utile in circostanze particolari, ma in generale è meglio non specificarlo e utilizzare l'impostazione predefinita.

Layout di file progressivi

È possibile specificare una configurazione PFL (Progressive File Layout) per una directory per specificare diverse configurazioni di stripe per file di piccole e grandi dimensioni prima di popolarla. Ad esempio, è possibile impostare un PFL nella directory di primo livello prima che i dati vengano scritti su un nuovo file system.

Per specificare una configurazione PFL, utilizzate il lfs setstripe comando con -E opzioni per specificare i componenti di layout per file di dimensioni diverse, come il comando seguente:

lfs setstripe -E 100M -c 1 -E 10G -c 8 -E 100G -c 16 -E -1 -c 32 /mountname/directory

Questo comando imposta quattro componenti di layout:

  • Il primo componente (-E 100M -c 1) indica un valore di conteggio delle strisce pari a 1 per file di dimensioni fino a 100 MiB.

  • Il secondo componente (-E 10G -c 8) indica un numero di strisce pari a 8 per file di dimensioni fino a 10 GiB.

  • Il terzo componente (-E 100G -c 16) indica un numero di strisce pari a 16 per file di dimensioni fino a 100 GiB.

  • Il quarto componente (-E -1 -c 32) indica un numero di strisce pari a 32 per file di dimensioni superiori a 100 GiB.

Importante

L'aggiunta di dati a un file creato con un layout PFL popolerà tutti i relativi componenti di layout. Ad esempio, con il comando a 4 componenti mostrato sopra, se create un file da 1 MiB e poi aggiungete dati alla fine del file, il layout del file si espanderà fino ad avere un numero di strisce pari a -1, vale a dire tutti gli OST del sistema. Ciò non significa che i dati verranno scritti su ogni OST, ma un'operazione come la lettura della lunghezza del file invierà una richiesta in parallelo a ogni OST, aggiungendo un carico di rete significativo al file system.

Pertanto, fate attenzione a limitare il numero di strisce per qualsiasi file di piccola o media lunghezza a cui successivamente possono essere aggiunti dati. Poiché i file di log di solito crescono con l'aggiunta di nuovi record, Amazon FSx for Lustre assegna un numero di stripe predefinito pari a 1 a qualsiasi file creato in modalità di aggiunta, indipendentemente dalla configurazione di stripe predefinita specificata dalla relativa directory principale.

La configurazione PFL predefinita sui file system Amazon FSx for Lustre creati dopo il 25 agosto 2023 viene impostata con questo comando:

lfs setstripe -E 100M -c 1 -E 10G -c 8 -E 100G -c 16 -E -1 -c 32 /mountname

I clienti con carichi di lavoro che hanno un accesso altamente simultaneo a file di medie e grandi dimensioni trarranno probabilmente vantaggio da un layout con più strisce per dimensioni più piccole e dallo striping su tutti gli OST per i file più grandi, come mostrato nel layout di esempio a quattro componenti.

Monitoraggio delle prestazioni e dell'utilizzo

Ogni minuto, Amazon FSx for Lustre invia ad Amazon i parametri di utilizzo per ogni disco (MDT e OST). CloudWatch

Per visualizzare i dettagli aggregati sull'utilizzo del file system, puoi consultare la statistica Sum di ogni metrica. Ad esempio, la somma delle DataReadBytes statistiche riporta la velocità di lettura totale registrata da tutti gli OST di un file system. Analogamente, la somma delle FreeDataStorageCapacity statistiche riporta la capacità di archiviazione totale disponibile per i dati dei file nel file system.

Per ulteriori informazioni sul monitoraggio delle prestazioni del file system, vedereMonitoraggio di Amazon FSx for Lustre.

Suggerimenti per le prestazioni

Quando usi Amazon FSx for Lustre, tieni a mente i seguenti suggerimenti sulle prestazioni. Per i limiti del servizio, consulta. Quote

  • Dimensione I/O media: poiché Amazon FSx for Lustre è un file system di rete, ogni operazione sui file passa attraverso un viaggio di andata e ritorno tra il client e Amazon FSx for Lustre, con un piccolo sovraccarico di latenza. Grazie a questa bassa latenza per operazione, il throughput generale si incrementa assieme all'incremento delle dimensioni medie delle operazioni di I/O, perché l'overhead viene ammortizzato su una maggiore quantità di dati.

  • Modello di richiesta: abilitando le scritture asincrone sul file system, le operazioni di scrittura in sospeso vengono memorizzate nel buffer sull'istanza Amazon EC2 prima di essere scritte su Amazon FSx for Lustre in modo asincrono. Le scritture asincrone presentano generalmente delle latenze inferiori. Quando si eseguono delle scritture asincrone, il kernel utilizza della memoria aggiuntiva per la memorizzazione nella cache. Un file system che ha abilitato le scritture sincrone invia richieste sincrone ad Amazon FSx for Lustre. Ogni operazione passa attraverso un viaggio di andata e ritorno tra il client e Amazon FSx for Lustre.

    Nota

    La modalità di richiesta presenta compromessi in termini di consistenza (se si utilizzano molteplici istanze Amazon EC2) e di velocità.

  • Limita la dimensione della directory: per ottenere prestazioni ottimali dei metadati sui file system Persistent_2 FSx for Lustre, limita ogni directory a meno di 100.000 file. La limitazione del numero di file in una directory riduce il tempo necessario al file system per acquisire un blocco sulla directory principale.

  • Istanze Amazon EC2: le applicazioni che eseguono un gran numero di operazioni di lettura e scrittura richiedono probabilmente più memoria o capacità di elaborazione rispetto alle applicazioni che non lo fanno. Quando avvii le istanze Amazon EC2 per un carico di lavoro ad alta intensità di calcolo, scegli i tipi di istanza che hanno la quantità di queste risorse di cui l'applicazione ha bisogno. Le caratteristiche prestazionali dei file system Amazon FSx for Lustre non dipendono dall'uso di istanze ottimizzate per Amazon EBS.

  • Ottimizzazione consigliata delle istanze del client per prestazioni ottimali

    1. Per tutti i tipi e le dimensioni delle istanze client, consigliamo di applicare la seguente ottimizzazione:

      sudo lctl set_param osc.*.max_dirty_mb=64
    2. Per i tipi di istanze client con memoria superiore a 64 GiB, consigliamo di applicare la seguente ottimizzazione:

      lctl set_param ldlm.namespaces.*.lru_max_age=600000
    3. Per i tipi di istanze client con più di 64 core vCPU, consigliamo di applicare la seguente ottimizzazione:

      echo "options ptlrpc ptlrpcd_per_cpt_max=32" >> /etc/modprobe.d/modprobe.conf echo "options ksocklnd credits=2560" >> /etc/modprobe.d/modprobe.conf # reload all kernel modules to apply the above two settings sudo reboot

      Dopo aver montato il client, è necessario applicare la seguente ottimizzazione:

      sudo lctl set_param osc.*OST*.max_rpcs_in_flight=32 sudo lctl set_param mdc.*.max_rpcs_in_flight=64 sudo lctl set_param mdc.*.max_mod_rpcs_in_flight=50

    Nota che lctl set_param è noto che non persiste dopo il riavvio. Poiché questi parametri non possono essere impostati in modo permanente dal lato client, si consiglia di implementare un boot cron job per impostare la configurazione con le ottimizzazioni consigliate.

  • Equilibrio del carico di lavoro tra i sistemi OST: in alcuni casi, il carico di lavoro non determina il throughput aggregato che il file system è in grado di fornire (200 MB/s per TiB di storage). In tal caso, puoi utilizzare le CloudWatch metriche per risolvere i problemi se le prestazioni sono influenzate da uno squilibrio nei modelli di I/O del carico di lavoro. Per identificare se questa è la causa, consulta la CloudWatch metrica Maximum per Amazon FSx for Lustre.

    In alcuni casi, questa statistica mostra un carico pari o superiore a 240 MBps di throughput (la capacità di throughput di un singolo disco Amazon FSx for Lustre da 1,2 TiB). In questi casi, il carico di lavoro non è distribuito uniformemente sui dischi. In tal caso, puoi utilizzare il lfs setstripe comando per modificare lo striping dei file a cui il tuo carico di lavoro accede più frequentemente. Per prestazioni ottimali, suddividete i file con requisiti di throughput elevati su tutti i sistemi OST che compongono il file system.

    Se i tuoi file vengono importati da un archivio di dati, puoi adottare un altro approccio per suddividere i file ad alta velocità in modo uniforme su tutti i tuoi OST. A tale scopo, puoi modificare il ImportedFileChunkSize parametro durante la creazione del tuo prossimo file system Amazon FSx for Lustre.

    Ad esempio, supponiamo che il carico di lavoro utilizzi un file system da 7,0 TiB (composto da 6 OST da 1,17 TiB) e debba garantire un throughput elevato su file da 2,4 GiB. In questo caso, potete impostare il valore in modo che i file siano distribuiti in modo uniforme tra i file OST del file systemImportedFileChunkSize. (2.4 GiB / 6 OSTs) = 400 MiB

  • Client Lustre per Metadata IOPS: se il tuo file system ha una configurazione di metadati specificata, ti consigliamo di installare un client Lustre 2.15 o un client Lustre 2.12 con una di queste versioni del sistema operativo: Amazon Linux 2023, Amazon Linux 2, Red Hat/CentOS/Rocky Linux 8.9 o 9.x, Ubuntu 22 con kernel 6.2 o Ubuntu 20.