Performa Amazon FSx for Lustre - FSx for Lustre

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Performa Amazon FSx for Lustre

Amazon FSx for Lustre, dibangun di atas Lustre, sistem file dengan performa tinggi yang populer, memberikan kinerja penguatan yang meningkat secara linear berdasarkan ukuran sistem fille. Sistem file Lustre terskala secara horizontal di beberapa server file dan disk. Penskalaan ini memberikan setiap klien akses langsung ke data yang disimpan pada setiap disk untuk menghapus banyaknya kemacetan yang ada dalam sistem file tradisional. Amazon FSx for Lustre dibangun di atas arsitektur Lustre yang dapat diskalakan untuk men-support performa tingkat tinggi di seluruh klien yang jumlahnya sangat banyak.

Cara kerja sistem file FSx for Lustre

Setiap sistem file FSx for Lustre terdiri dari server file yang berkomunikasi dengan klien, dan satu set disk yang dilampirkan ke setiap server file yang menyimpan data Anda. Setiap server file menggunakan cache dalam memori untuk meningkatkan performa untuk data yang diakses paling sering. Sistem file berbasis HDD juga dapat disediakan dengan cache baca berbasis SSD untuk lebih meningkatkan performa untuk data yang paling sering diakses. Ketika klien mengakses data yang disimpan di cache dalam memori atau cache SSD, server file tidak perlu membacanya dari disk, yang mana akan mengurangi latensi dan meningkatkan jumlah total throughput yang dapat Anda drive. Diagram berikut menggambarkan jalur operasi tulis, operasi baca yang disajikan dari disk, dan operasi baca yang disajikan dari cache dalam memori atau SSD.

FSx for Lustre performance architecture.

Ketika Anda membaca data yang disimpan di cache dalam-memori atau cache SSD pada server file, performa sistem file ditentukan oleh throughput jaringan. Ketika Anda menulis data ke sistem file Anda, atau ketika Anda membaca data yang tidak disimpan pada cache dalam memori, kinerja sistem file ditentukan oleh yang lebih rendah dari throughput jaringan dan throughput disk.

Saat Anda menyediakan sistem file HDD Lustre dengan cache SSD, Amazon FSx membuat cache SSD yang secara otomatis berukuran hingga 20 persen dari kapasitas penyimpanan HDD sistem file. Melakukan hal ini memberikan latensi sub-milidetik dan IOPS yang lebih tinggi untuk file yang sering diakses.

Performa kumpulan sistem file

Throughput yang didukung oleh sistem file FSx for Lustre sebanding dengan kapasitas penyimpanannya. Sistem file Amazon FSx for Lustre meningkat skala-nya hingga ratusan GBps throughput dan jutaan IOPS. Amazon FSx for Lustre juga men-support akses bersamaan ke file atau direktori yang sama dari ribuan instans komputasi. Akses ini mengaktifkan checkpointing data cepat dari memori aplikasi ke penyimpanan, yang merupakan teknik umum dalam komputasi performa tinggi (HPC). Anda dapat meningkatkan jumlah penyimpanan dan kapasitas throughput yang diperlukan setiap saat setelah Anda membuat sistem file. Untuk informasi selengkapnya, lihat Mengelola kapasitas penyimpanan.

Sistem file FSx for Lustre menyediakan throughput burst read menggunakan mekanisme kredit I/O jaringan untuk mengalokasikan bandwidth jaringan berdasarkan pemanfaatan bandwidth rata-rata. Sistem-sistem file memperoleh kredit ketika penggunaan bandwidth jaringan mereka di bawah batas baseline, dan dapat menggunaan kredit ini ketika sistem-sistem file melaksanakan transfer data jaringan.

Tabel berikut menunjukkan kinerja yang dirancang untuk opsi penyebaran FSx for Lustre.

Performa sistem file untuk pilihan penyimpanan SSD
Jenis Deployment Throughput jaringan (MB/s/Tib penyimpanan disediakan) IOPS Jaringan (IOPS/TIB penyimpanan disediakan) Penyimpanan cache (GiB RAM/Tib penyimpanan disediakan) Latensi disk per operasi file (milidetik, P50) Throughput disk (MBPS/Tib penyimpanan atau cache SSD disediakan)

Baseline

Meledak

Baseline

Meledak

SCRATCH_2 200 1300

Puluhan ribu baseline

Ratusan ribu burst

6.7

Metadata: sub-ms

Data: sub-ms

200 (baca)

100 (tulis)

PERSISTEN-125 320 1300 3.4

125

500
PERSISTEN-250 640 1300 6.8

250

500
PERSISTEN-500 1300 13.7 500

PERSISTEN-1000 2600 27.3 1000
Performa sistem file untuk opsi penyimpanan HDD
Jenis Deployment Throughput jaringan (MB/s/Tib penyimpanan atau cache SSD disediakan) IOPS Jaringan (IOPS/TIB penyimpanan disediakan) Penyimpanan cache (GiB RAM/Tib penyimpanan disediakan) Latensi disk per operasi file (milidetik, P50) Throughput disk (MBPS/Tib penyimpanan atau cache SSD disediakan)

Baseline

Meledak

Baseline

Meledak

PERSISTENT-12
Penyimpanan HDD 40 375*

Puluhan ribu baseline

Ratusan ribu burst

Memori 0,4

Metadata: sub-ms

Data: ms ber-digit tunggal

12

80 (baca)

50 (tulis)

Cache baca SSD

200

1.900

200 cache SSD

Data: sub-ms

200

-

PERSISTENT-40
Penyimpanan HDD 150 1.300*

Puluhan ribu baseline

Ratusan ribu burst

1.5

Metadata: sub-ms

Data: ms ber-digit tunggal

40

250 (baca)

150 (tulis)

Cache baca SSD

750

6500

200 cache SSD

Data: sub-ms

200

-

Kinerja sistem file untuk opsi penyimpanan SSD generasi sebelumnya
Jenis Deployment Throughput jaringan (MB/s per TiB penyimpanan yang disediakan) IOPS Jaringan (IOPS per TiB penyimpanan yang disediakan) Penyimpanan cache (GiB per TiB penyimpanan disediakan) Latensi disk per operasi file (milidetik, P50) Throughput disk (MB/s per TiB penyimpanan atau cache SSD disediakan)

Baseline

Meledak

Baseline

Meledak

PERSISTENT-50 250 1.300*

Puluhan ribu baseline

Ratusan ribu burst

2.2 RAM

Metadata: sub-ms

Data: sub-ms

50

240

PERSISTENT-100 500 1.300* 4.4 RAM 100 240
PERSISTENT-200 750 1.300* 8,8 RAM 200 240
catatan

* Sistem file persisten berikut ini Wilayah AWS menyediakan ledakan jaringan hingga 530 MB/s per TiB penyimpanan: Afrika (Cape Town), Asia Pasifik (Hong Kong), Asia Pasifik (Osaka), Asia Pasifik (Singapura), Kanada (Tengah), Eropa (Frankfurt), Eropa (London), Eropa (Milan), Eropa (Stockholm), Timur Tengah (Bahrain), Amerika Selatan (São Paulo), China, dan AS Barat (Los Angeles).

Contoh: Agregat baseline dan burst throughput

Contoh berikut menggambarkan bagaimana kapasitas penyimpanan dan throughput disk mempengaruhi performa sistem file.

Sistem file persisten dengan kapasitas penyimpanan 4,8 TiB dan 50 MB/s per TiB throughput per unit penyimpanan menyediakan throughput disk dasar agregat 240 MB/s dan throughput disk burst 1,152 Gb/s.

Terlepas dari ukuran sistem file, Amazon FSx for Lustre menyediakan latensi sub-milidetik yang konsisten untuk operasi file.

Kinerja metadata sistem file

Sistem file metadata operasi IO per detik (IOPS) menentukan jumlah file dan direktori yang dapat Anda buat, daftar, baca, dan hapus per detik. Metadata IOPS secara otomatis disediakan pada sistem file FSx for Lustre berdasarkan kapasitas penyimpanan yang Anda berikan.

Sistem file Persistent_2 memungkinkan Anda untuk menyediakan Metadata IOPS independen dari kapasitas penyimpanan dan memberikan peningkatan visibilitas ke dalam jumlah dan jenis metadata yang ditargetkan oleh instans klien IOPS di sistem file Anda.

Dengan sistem file FSx for Lustre Persistent_2, jumlah IOPS metadata yang Anda sediakan dan jenis operasi metadata menentukan tingkat operasi metadata yang dapat didukung oleh sistem file Anda. Tingkat IOPS metadata yang Anda berikan menentukan jumlah IOPS yang disediakan untuk disk metadata sistem file Anda.

Jenis operasi Operasi yang dapat Anda kendarai per detik untuk setiap metadata yang disediakan IOPS

Membuat File, Buka dan Tutup

2

Hapus File

1

Direktori Buat, Ganti Nama

0.1

Direktori Hapus

0,2

Anda dapat memilih untuk menyediakan IOPS metadata menggunakan mode Otomatis atau mode yang disediakan pengguna. Dalam mode Otomatis, Amazon FSx secara otomatis menyediakan IOPS metadata berdasarkan kapasitas penyimpanan sistem file Anda sesuai dengan tabel di bawah ini:

Kapasitas penyimpanan sistem file Termasuk metadata IOPS dalam mode Otomatis

1200 GiB

1500

2400 GiB

3000

4800—9600 GiB

6000

12000—45600 GiB

12000

≥48000 GiB

12000 IOPS per 24000 GiB

Dalam mode yang disediakan pengguna, Anda dapat memilih untuk menentukan jumlah IOPS metadata yang akan disediakan. Anda membayar Metadata IOPS yang disediakan di atas nomor default Metadata IOPS untuk sistem file Anda.

Layout penyimpanan sistem file

Semua data file di Lustre disimpan di volume penyimpanan yang disebut target penyimpanan objek (OST). Semua metadata file (termasuk nama file, timestamp, izin, dan lainnya) disimpan di volume penyimpanan yang disebut target metadata (MDT). Sistem file Amazon FSx for Lustre terdiri dari satu atau lebih MDT dan beberapa OST. Setiap OST berukuran sekitar 1 hingga 2 TiB, tergantung dari jenis deployment sistem file. Amazon FSx for Lustre menyebarkan data file Anda ke seluruh OST yang membentuk sistem file Anda untuk menyeimbangkan kapasitas penyimpanan dengan throughput dan beban IOPS.

Untuk melihat penggunaan penyimpanan MDT dan OST yang membentuk sistem file Anda, jalankan perintah berikut dari client yang sistem file-nya sudah terpasang.

lfs df -h mount/path

Hasil akhir dari perintah ini adalah sebagai berikut.

UUID bytes Used Available Use% Mounted on mountname-MDT0000_UUID 68.7G 5.4M 68.7G 0% /fsx[MDT:0] mountname-OST0000_UUID 1.1T 4.5M 1.1T 0% /fsx[OST:0] mountname-OST0001_UUID 1.1T 4.5M 1.1T 0% /fsx[OST:1] filesystem_summary: 2.2T 9.0M 2.2T 0% /fsx

Sedang melakukan stripe data di sistem file Anda

Anda dapat mengoptimalkan performa throughput sistem file Anda dengan melakukan file striping. Amazon FSx for Lustre secara otomatis menyebarkan file-file ke seluruh OST untuk memastikan bahwa data dilayani dari semua server penyimpanan. Anda dapat menerapkan konsep yang sama di tingkat file dengan mengonfigurasi bagaimana file-file di-stripe di beberapa OST.

Striping artinya bahwa file-file dapat dibagi menjadi beberapa potongan yang kemudian disimpan di seluruh OST yang berbeda. Ketika sebuah file di-stripe di beberapa OST, pembacaan atau penulisan permintaan ke file tersebar di OST-OST tersebut, meningkatkan throughput agregat atau IOPS yang aplikasi Anda dapat melakukan drive melaluinya.

Berikut ini adalah layout default untuk sistem file Amazon FSx for Lustre.

  • Untuk sistem file yang dibuat sebelum 18 Desember 2020, tata letak default menentukan jumlah garis 1. Ini berarti bahwa kecuali sebuah layout yang berbeda ditentukan, setiap file yang dibuat di Amazon FSx for Lustre menggunakan alat-alat Linux standar disimpan di sebuah disk.

  • Untuk sistem file yang dibuat setelah 18 Desember 2020, tata letak default adalah tata letak file progresif di mana file di bawah ukuran 1GiB disimpan dalam satu garis, dan file yang lebih besar diberi jumlah garis 5.

  • Untuk sistem file yang dibuat setelah 25 Agustus 2023, tata letak default adalah tata letak file progresif 4 komponen yang dijelaskan di. Layout file progresif

  • Untuk semua sistem file terlepas dari tanggal pembuatannya, file yang diimpor dari Amazon S3 tidak menggunakan tata letak default, melainkan menggunakan tata letak dalam parameter sistem file. ImportedFileChunkSize File-file yang diimpor dari S3 yang lebih besar dari ImportedFileChunkSize akan disimpan di beberapa OST dengan jumlah stripe sebanyak (FileSize / ImportedFileChunksize) + 1. Nilai default dari ImportedFileChunkSize adalah 1GiB.

Anda dapat melihat konfigurasi layout dari sebuah file atau direktori menggunakan perintah lfs getstripe.

lfs getstripe path/to/filename

Perintah ini melaporkan jumlah stripe dari file, ukuran stripe, dan offset stripe. Jumlah stripe adalah seberapa banyak OST file yang di-stripe. Ukuran stripe adalah seberapa banyak data berkelanjutan yang disimpan dalam sebuah OST. Offset stripe adalah indeks OST pertama tempat file di-stripe.

Memodifikasi konfigurasi striping Anda

Parameter layout dari sebuah file diatur ketika file pertama kali dibuat. Gunakan perintah lfs setstripe untuk membuat sebuah file yang baru, kosong dengan layout yang telah ditentukan.

lfs setstripe filename --stripe-count number_of_OSTs

Perintah lfs setstripe mempengaruhi hanya layout dari sebuah file baru. Gunakan perintah tersebut untuk menentukan layout sebuah file sebelum Anda membuatnya. Anda juga dapat menentukan layout untuk sebuah direktori. Setelah ditetapkan pada sebuah direktori, layout diterapkan ke setiap file baru yang ditambahkan ke direktori tersebut, tetapi tidak ke file yang sudah ada. Setiap subdirektori baru yang Anda buat juga mewarisi layout baru, yang kemudian diterapkan ke setiap file atau direktori baru yang Anda buat dalam subdirektori tersebut.

Untuk memodifikasi layout dari file yang ada, gunakan perintah lfs migrate. Perintah ini menyalin file sebagaimana diperlukan untuk mendistribusikan isinya berdasarkan layout yang Anda tentukan di perintah. Misalnya, file-file yang ditambahkan atau ditingkatkan ukurannya tidak akan mengubah jumlah stripe, jadi Anda harus me-migrasi file-file untuk mengubah layout file. Atau, Anda dapat membuat file baru menggunakan perintah lfs setstripe untuk menentukan layout-nya, menyalin konten semula ke file yang baru, dan kemudian mengubah nama file yang baru untuk mengganti file semula.

Mungkin ada kasus-kasus di mana konfigurasi layout default tidak optimal untuk beban kerja Anda. Sebagai contoh, sistem file dengan puluhan OST dan sejumlah besar file berukuran multi-gigabyte bisa memiliki performa yang lebih tinggi dengan melakukan stripe file lebih dari nilai jumlah stripe default dari lima OST. Membuat file-file besar dengan jumlah stripe yang rendah dapat menyebabkan kemacetan performa I/O dan juga dapat menyebabkan OST penuh. Dalam hal ini, Anda dapat membuat sebuah direktori dengan jumlah stripe yang lebih besar untuk file-file ini.

Mengatur layout yang ditetapkan stripe-nya untuk file-file besar (terutama file-file yang lebih besar dari ukuran gigabyte) adalah penting karena alasan-alasan berikut ini:

  • Tingkatkan throughput dengan mengizinkan beberapa OST dan server mereka yang ter-associate untuk berkontribusi IOPS, bandwidth jaringan, dan sumber daya CPU saat membaca dan menulis file besar.

  • Mengurangi kemungkinan subset kecil dari OST menjadi hot spot yang membatasi performa beban kerja secara keseluruhan.

  • Mencegah satu file tunggal besar mengisi OST, yang berpotensi menyebabkan error disk penuh.

Tidak ada konfigurasi layout optimal tunggal untuk semua kasus penggunaan. Untuk panduan men-detail tentang layout file, lihat Mengelola Layout File (Melakukan Stripe) dan Ruang Bebas dalam dokumentasi Lustre.org. Berikut ini adalah pedoman umum:

  • Layout yang sudah ditentukan stripe-nya adalah masalah bagi file-file besar, terutama dalam kasus penggunaan di mana file-file secara rutin memiliki ukuran ratusan megabyte atau lebih. Untuk alasan ini, layout default untuk sistem file baru menetapkan jumlah stripe sebanyak lima untuk file-file di atas ukuran 1GiB.

  • Jumlah Stripe adalah parameter layout yang harus Anda sesuaikan untuk sistem yang men-support file-file besar. Jumlah stripe menentukan jumlah volume OST yang akan menyimpan potongan file yang memiliki stripe. Misalnya, dengan jumlah stripe sebanyak 2 dan sebuah stripe berukuran 1MiB, Lustre menuliskan potongan file 1MiB alternatif ke tiap-tiap dari dua OST.

  • Jumlah stripe yang efektif adalah lebih sedikit dari jumlah volume OST yang sebenarnya dan nilai jumlah stripe yang Anda tentukan. Anda dapat menggunakan nilai jumlah stripe sebanyak -1 untuk menunjukkan bahwa stripe harus ditempatkan di semua volume OST.

  • Mengatur jumlah stripe yang besar untuk file-file kecil adalah hal yang kurang optimal karena untuk operasi-operasi tertentu Lustre perlu melakukan perjalanan bolak-balik jaringan ke setiap OST di layout, bahkan jika file terlalu kecil untuk menghabiskan ruang di semua volume OST.

  • Anda dapat mengatur layout file progresif (PFL) yang mengizinkan layout sebuah file berubah-ubah sesuai ukuran. Konfigurasi PFL dapat menyederhanakan pengelolaan sebuah sistem file yang memiliki kombinasi file besar dan kecil tanpa Anda harus secara eksplisit mengatur konfigurasi untuk setiap file. Untuk informasi selengkapnya, lihat Layout file progresif.

  • Ukuran Stripe secara default adalah 1MiB. Menyetel garis offset mungkin berguna dalam keadaan khusus, tetapi secara umum yang terbaik adalah membiarkannya tidak ditentukan dan menggunakan default.

Layout file progresif

Anda dapat menentukan konfigurasi layout file progresif (PFL) untuk sebuah direktori untuk menentukan konfigurasi stripe yang berbeda-beda untuk file kecil dan besar sebelum mengisinya. Misalnya, Anda dapat mengatur PFL di direktori tingkat atas sebelum ada data yang dituliskan ke sistem file yang baru.

Untuk menentukan konfigurasi PFL, gunakan perintah lfs setstripe dengan opsi -E untuk menentukan komponen layout untuk file dengan ukuran yang berbeda-beda, seperti perintah berikut:

lfs setstripe -E 100M -c 1 -E 10G -c 8 -E 100G -c 16 -E -1 -c 32 /mountname/directory

Perintah ini menetapkan empat komponen tata letak:

  • Komponen pertama (-E 100M -c 1) menunjukkan nilai jumlah stripe sebanyak 1 untuk file-file dengan ukuran 100MiB.

  • Komponen kedua (-E 10G -c 8) menunjukkan nilai jumlah stripe sebanyak 8 untuk file-file dengan ukuran 10GiB.

  • Komponen ketiga (-E 100G -c 16) menunjukkan jumlah garis 16 untuk file berukuran hingga 100GiB.

  • Komponen keempat (-E -1 -c 32) menunjukkan jumlah garis 32 untuk file yang lebih besar dari 100GiB.

penting

Menambahkan data ke file yang dibuat dengan sebuah layout PFL, data akan mengisi semua komponen layout-nya. Misalnya, dengan perintah 4-komponen yang ditunjukkan di atas, jika Anda membuat file 1MiB dan kemudian menambahkan data ke ujungnya, tata letak file akan diperluas untuk memiliki jumlah garis -1, yang berarti semua OST dalam sistem. Hal ini tidak berarti data akan ditulis ke setiap OST, tetapi sebuah operasi seperti membaca panjang file akan mengirimkan permintaan secara paralel ke setiap OST, menambah beban jaringan yang signifikan ke sistem file.

Oleh karena itu, berhati-hatilah untuk membatasi jumlah stripe untuk panjang file berukuran kecil dan medium yang selanjutnya dapat diisi oleh data ke dalamnya. Karena file berkas log biasanya membesar dengan adanya catatan baru yang ditambahkan, Amazon FSx for Lustre menetapkan jumlah stripe default sebanyak 1 ke setiap file yang dibuat dalam mode tambah, terlepas dari konfigurasi stripe default yang ditentukan oleh direktori induknya.

Konfigurasi PFL default di Amazon FSx for Lustre sistem file yang dibuat setelah 25 Agustus 2023 diatur dengan perintah ini:

lfs setstripe -E 100M -c 1 -E 10G -c 8 -E 100G -c 16 -E -1 -c 32 /mountname

Pelanggan dengan beban kerja yang memiliki akses sangat bersamaan pada file sedang dan besar cenderung mendapat manfaat dari tata letak dengan lebih banyak garis pada ukuran yang lebih kecil dan striping di semua OST untuk file terbesar, seperti yang ditunjukkan dalam tata letak contoh empat komponen.

Memantau performa dan penggunaan

Setiap menit, Amazon FSx for Lustre memancarkan metrik penggunaan untuk setiap disk (MDT dan OST) ke Amazon. CloudWatch

Untuk melihat detail penggunaan sistem file agregat, Anda dapat melihat statistik Jumlah dari setiap metrik. Sebagai contoh, Jumlah dari statistik DataReadBytes melaporkan total throughput baca yang terlihat oleh semua OST di dalam sebuah sistem file. Sama halnya, Jumlah dari statistik FreeDataStorageCapacity melaporkan jumlah kapasitas penyimpanan yang tersedia untuk data file di dalam sistem file.

Untuk informasi selengkapnya tentang pemantauan performa dari sistem file Anda, lihat Memantau Amazon FSx for Lustre.

Tips performa

Saat menggunakan Amazon FSx for Lustre, ingatlah tips performa berikut ini. Untuk batas-batas layanan, lihat Kuota untuk Amazon FSx for Lustre.

  • Ukuran I/O rata-rata — Karena Amazon FSx for Lustre adalah sebuah sistem file jaringan, masing-masing operasi file melakukan perjalan pulang-pergi antara client dan Amazon FSx for Lustre, menimbulkan sedikit overhead latensi. Karena latency per-operasi ini, throughput keseluruhan secara umum meningkat karena ukuran I/O rata-rata yang meningkat, karena overhead diamortisasi melebihi jumlah data yang lebih besar.

  • Model permintaan — Dengan mengaktifkan penulisan asinkron ke sistem file Anda, operasi tulis yang tertunda menjadi buffer di instans Amazon EC2 sebelum ditulis di Amazon FSx for Lustre secara asinkron. Penulisan asinkron biasanya memiliki latensi yang lebih rendah. Saat melakukan penulisan asinkron, kernel menggunakan memori tambahan untuk melakukan cache. Sistem file yang telah mengaktifkan penulisan sinkron mengeluarkan permintaan sinkron ke Amazon FSx for Lustre. Setiap operasi melakukan perjalan pulang-pergi antara client dan Amazon FSx for Lustre.

    catatan

    Model permintaan pilihan Anda telah mengorbankan konsistensi (jika Anda menggunakan beberapa instans Amazon EC2) dan kecepatan.

  • Batasi ukuran direktori - Untuk mencapai kinerja metadata yang optimal pada Persistent_2 FSx untuk sistem file Lustre, batasi setiap direktori hingga kurang dari 100K file. Membatasi jumlah file dalam direktori mengurangi waktu yang diperlukan untuk sistem file untuk memperoleh kunci pada direktori induk.

  • Instans Amazon EC2 — Aplikasi-aplikasi yang melakukan sejumlah besar operasi baca dan tulis cenderung memerlukan lebih banyak memori atau kapasitas komputasi daripada aplikasi-aplikasi yang tidak melakukannya. Ketika meluncurkan instans-instans Amazon EC2 Anda untuk beban kerja komputasi intensif Anda, pilihlah jenis-jenis instans yang memiliki jumlah sumber daya yang dibutuhkan aplikasi Anda. Karakteristik performa sistem file Amazon FSx for Lustre tidak tergantung pada penggunaan Amazon EBS — instans-instans yang dioptimalkan.

  • Penyetelan instans klien yang direkomendasikan untuk kinerja optimal

    1. Untuk semua jenis dan ukuran instans klien, kami sarankan untuk menerapkan penyetelan berikut:

      sudo lctl set_param osc.*.max_dirty_mb=64
    2. Untuk tipe instance klien dengan memori lebih dari 64 GiB, kami sarankan untuk menerapkan penyetelan berikut:

      sudo lctl set_param ldlm.namespaces.*.lru_max_age=600000 sudo lctl set_param ldlm.namespaces.*.lru_size=<100 * number_of_CPUs>
    3. Untuk tipe instans klien dengan lebih dari 64 core vCPU, kami sarankan untuk menerapkan penyetelan berikut:

      echo "options ptlrpc ptlrpcd_per_cpt_max=32" >> /etc/modprobe.d/modprobe.conf echo "options ksocklnd credits=2560" >> /etc/modprobe.d/modprobe.conf # reload all kernel modules to apply the above two settings sudo reboot

      Setelah klien dipasang, penyetelan berikut perlu diterapkan:

      sudo lctl set_param osc.*OST*.max_rpcs_in_flight=32 sudo lctl set_param mdc.*.max_rpcs_in_flight=64 sudo lctl set_param mdc.*.max_mod_rpcs_in_flight=50

    Perhatikan bahwa lctl set_param diketahui tidak bertahan selama reboot. Karena parameter ini tidak dapat diatur secara permanen dari sisi klien, disarankan untuk mengimplementasikan pekerjaan boot cron untuk mengatur konfigurasi dengan penyetelan yang disarankan.

  • Keseimbangan beban kerja di OST — Dalam beberapa kasus, beban kerja Anda tidak men-drive throughput agregat yang dapat diberikan oleh sistem file Anda (200 MB/s per TiB penyimpanan). Jika demikian, Anda dapat menggunakan CloudWatch metrik untuk memecahkan masalah jika kinerja dipengaruhi oleh ketidakseimbangan dalam pola I/O beban kerja Anda. Untuk mengidentifikasi apakah ini penyebabnya, lihat CloudWatch metrik Maksimum untuk Amazon FSx for Lustre.

    Dalam beberapa kasus, statistik ini menunjukkan beban sebesar 240 MBps atau di atasnya throughput (kapasitas throughput dari satu disk Amazon FSx for Lustre 1,2-TiB). Dalam kasus tersebut, beban kerja Anda tidak tersebar secara merata di seluruh disk Anda. Jika demikian kasusnya, Anda dapat menggunakan perintah lfs setstripe untuk memodifikasi striping file yang paling sering diakses oleh beban kerja Anda. Untuk performa optimal, file-file stripe dengan persyaratan throughput yang tinggi di semua OST harus berisikan sistem file Anda.

    Jika file Anda diimpor dari repositori data, Anda dapat mengambil pendekatan lain untuk men-stripe file-file ber-throughput tinggi milik Anda secara merata di seluruh OST Anda. Untuk melakukannya, Anda dapat memodifikasi parameter ImportedFileChunkSize saat membuat sistem file Amazon FSx for Lustre berikutnya.

    Sebagai contoh, misalkan beban kerja Anda menggunakan sistem file 7,0-TIB (yang terdiri dari OSTs 6x 1,17-TIB) dan perlu men-drive throughput tinggi di seluruh file-file berjumlah 2,4-GiB. Dalam hal ini, Anda dapat mengatur nilai ImportedFileChunkSize ke (2.4 GiB / 6 OSTs) = 400 MiB sehingga file-file Anda tersebar secara merata di seluruh OST sistem file Anda.

  • Klien Lustre untuk Metadata IOPS - Jika sistem file Anda memiliki konfigurasi metadata yang ditentukan, kami sarankan Anda menginstal klien Lustre 2.15 atau klien Lustre 2.12 dengan salah satu versi OS ini: Amazon Linux 2023, Amazon Linux 2, Red Hat/CentOs/Rocky Linux 8.9 atau 9.x, Ubuntu 22 dengan 6.2 kernel, atau Ubuntu 20.