CloudWatch Amazon 지표 EFS - Amazon Elastic File System

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

CloudWatch Amazon 지표 EFS

Amazon EFS 지표는 EFS 네임스페이스를 사용합니다. AWS/EFS 네임스페이스에 포함된 지표는 다음과 같습니다. 를 제외한 모든 지표TimeSinceLastSync는 단일 차원인 에 대한 것입니다FileSystemId. 파일 시스템의 ID는 Amazon EFS 콘솔에서 찾을 수 있으며 형식은 입니다fs-abcdef0123456789a.

TimeSinceLastSync

복제 구성에서 대상 파일 시스템에 마지막으로 성공적으로 동기화한 이후 경과된 시간을 표시합니다. TimeSinceLastSync 값이 성공적으로 복제되기 전에 발생한 소스 파일 시스템의 모든 데이터 변경은 성공적으로 복제되었습니다. TimeSinceLastSync 이후에 발생한 소스의 모든 변경 사항은 완전히 복제되지 않을 수 있습니다.

이 지표는 두 가지 차원을 사용합니다.

  • FileSystemId 차원 - 복제 구성에서 소스 파일 시스템의 ID입니다.

  • DestinationFileSystemId dimension - 복제 구성의 대상 파일 시스템의 ID입니다.

단위: 초

유효한 통계: Minimum, Maximum, Average

PercentIOLimit

파일 시스템이 범용 성능 모드의 I/O 제한에 얼마나 가깝게 도달해있는지 나타냅니다.

단위: 백분율

유효한 통계: Minimum, Maximum, Average

BurstCreditBalance

파일 시스템의 버스트 크레딧 수 파일 시스템은 버스트 크레딧을 사용하여 일정 시간 파일 시스템의 기준 레벨을 넘는 처리량 레벨까지 버스팅할 수 있습니다.

Minimum 통계는 해당 기간을 통틀어서 가장 작은 버스트 크레딧 밸런스를 말합니다. Maximum 통계는 해당 기간을 통틀어서 가장 큰 버스트 크레딧 밸런스를 말합니다. 그리고 Average 통계는 해당 기간 중 평균 버스트 크레딧 밸런스를 말합니다.

단위: 바이트

유효한 통계: Minimum, Maximum, Average

PermittedThroughput

파일 시스템이 구동할 수 있는 최대 처리량입니다.

  • 탄력적 처리량을 사용하는 파일 시스템의 경우 이 값은 파일 시스템의 최대 쓰기 처리량을 반영합니다.

  • 프로비저닝된 처리량을 사용하는 파일 시스템의 경우 EFS 표준 스토리지 클래스에 저장된 데이터 양으로 인해 파일 시스템이 프로비저닝된 것보다 높은 처리량을 구동할 수 있는 경우 이 지표는 프로비저닝된 양 대신 높은 처리량을 반영합니다.

  • 버스트 처리량 모드의 파일 시스템의 경우 이 값은 파일 시스템 크기 및 의 함수입니다BurstCreditBalance.

Minimum 통계는 해당 기간을 통틀어서 최소 허용 처리량을 말합니다. Maximum 통계는 해당 기간을 통틀어서 최고 허용 처리량을 말합니다. 그리고 Average 통계는 해당 기간 중 평균 허용 처리량을 말합니다.

참고

읽기 작업은 다른 작업의 3분의 1 비율로 측정됩니다.

단위: 바이트/초

유효한 통계: Minimum, Maximum, Average

MeteredIOBytes

데이터 읽기, 데이터 쓰기, 메타데이터 작업 등 각 파일 시스템 작업에 대해 측정된 바이트 수로, 읽기 작업은 다른 작업의 3분의 1 비율로 측정됩니다.

와 비교되는 CloudWatch 지표 수학 표현식을 생성할 수 MeteredIOBytes 있습니다PermittedThroughput. 이 값이 같으면 파일 시스템에 할당된 전체 처리량을 소비하게 됩니다. 이 경우 처리량을 높이기 위해 파일 시스템의 처리량 모드를 변경하는 것을 고려할 수 있습니다.

Sum 통계는 모든 파일 시스템 작업과 연결되어 측정된 총 바이트 수입니다. Minimum 통계는 해당 기간 중 가장 작은 작업의 크기입니다. Maximum 통계는 해당 기간 중 가장 큰 작업의 크기입니다. Average 통계는 해당 기간 중 작업의 평균 크기입니다. SampleCount 통계는 모든 작업의 수를 제공합니다.

단위:

  • Minimum, Maximum, AverageSum 통계일 때 바이트

  • SampleCount 통계일 때 수

유효한 통계: Minimum, Maximum, Average, Sum, SampleCount

TotalIOBytes

각 파일 시스템 작업(데이터 읽기, 쓰기 및 메타데이터 작업 포함)에 필요한 실제 바이트 수 이는 파일 시스템이 측정하는 처리량이 아니라 애플리케이션이 구동하는 실제 양입니다. 이것은 PermittedThroughput에 표시된 수치보다 많을 수 있습니다.

Sum 통계는 모든 파일 시스템 작업과 연결된 총 바이트 수입니다. Minimum 통계는 해당 기간 중 가장 작은 작업의 크기입니다. Maximum 통계는 해당 기간 중 가장 큰 작업의 크기입니다. Average 통계는 해당 기간 중 작업의 평균 크기입니다. SampleCount 통계는 모든 작업의 수를 제공합니다.

참고

일정 기간 초당 평균 작업 수를 계산하려면 SampleCount 통계를 초 단위의 해당 기간으로 나누면 됩니다. 일정 기간 평균 처리량(바이트/초)을 계산하려면 Sum 통계를 초 단위의 해당 기간으로 나누면 됩니다.

단위:

  • Minimum, Maximum, AverageSum 통계일 때 바이트

  • SampleCount 통계일 때 수

유효한 통계: Minimum, Maximum, Average, Sum, SampleCount

DataReadIOBytes

각 파일 시스템 읽기 작업의 실제 바이트 수입니다.

Sum 통계는 읽기 작업과 연결된 총 바이트 수입니다. Minimum 통계는 해당 기간 중 가장 작은 읽기 작업의 크기입니다. Maximum 통계는 해당 기간 중 가장 큰 읽기 작업의 크기입니다. Average 통계는 해당 기간 중 읽기 작업의 평균 크기입니다. 그리고 SampleCount 통계는 읽기 작업의 수를 제공합니다.

단위:

  • Minimum, Maximum, AverageSum 통계일 때 바이트

  • SampleCount 통계일 때 수

유효한 통계: Minimum, Maximum, Average, Sum, SampleCount

DataWriteIOBytes

각 파일 시스템 쓰기 작업에 대한 실제 바이트 수입니다.

Sum 통계는 쓰기 작업과 연결된 총 바이트 수입니다. Minimum 통계는 해당 기간 중 가장 작은 쓰기 작업의 크기입니다. Maximum 통계는 해당 기간 중 가장 큰 쓰기 작업의 크기입니다. Average 통계는 해당 기간 중 쓰기 작업의 평균 크기입니다. 그리고 SampleCount 통계는 쓰기 작업의 수를 제공합니다.

단위:

  • Minimum, Maximum, AverageSum 통계일 때 바이트

  • SampleCount 통계일 때 수

유효한 통계: Minimum, Maximum, Average, Sum, SampleCount

MetadataIOBytes

각 메타데이터 작업의 실제 바이트 수입니다.

Sum 통계는 메타데이터 작업과 연결된 총 바이트 수입니다. Minimum 통계는 해당 기간 중 가장 작은 메타데이터 작업의 크기입니다. Maximum 통계는 해당 기간 중 가장 큰 메타데이터 작업의 크기입니다. Average 통계는 해당 기간 중 평균 메타데이터 작업의 크기입니다. 그리고 SampleCount 통계는 메타데이터 작업의 수를 제공합니다.

단위:

  • Minimum, Maximum, AverageSum 통계일 때 바이트

  • SampleCount 통계일 때 수

유효한 통계: Minimum, Maximum, Average, Sum, SampleCount

MetadataReadIOBytes

각 메타데이터 읽기 작업에 대한 실제 바이트 수입니다.

통계는 메타데이터 읽기 작업과 관련된 총 Sum 바이트 수입니다. Minimum 통계는 해당 기간 동안 가장 작은 메타데이터 읽기 작업의 크기입니다. Maximum 통계는 해당 기간 동안 가장 큰 메타데이터 읽기 작업의 크기입니다. Average 통계는 해당 기간 동안의 메타데이터 읽기 작업의 평균 크기입니다. SampleCount 통계는 메타데이터 읽기 작업 수를 제공합니다.

단위:

  • Minimum, Maximum, AverageSum 통계일 때 바이트

  • SampleCount 통계일 때 수

유효한 통계: Minimum, Maximum, Average, Sum, SampleCount

MetadataWriteIOBytes

각 메타데이터 쓰기 작업에 대한 실제 바이트 수입니다.

통계는 메타데이터 쓰기 작업과 관련된 총 Sum 바이트 수입니다. Minimum 통계는 해당 기간 동안 가장 작은 메타데이터 쓰기 작업의 크기입니다. Maximum 통계는 해당 기간 동안 가장 큰 메타데이터 쓰기 작업의 크기입니다. Average 통계는 해당 기간 동안의 메타데이터 쓰기 작업의 평균 크기입니다. SampleCount 통계는 메타데이터 쓰기 작업 수를 제공합니다.

단위:

  • Minimum, Maximum, AverageSum 통계일 때 바이트

  • SampleCount 통계일 때 수

유효한 통계: Minimum, Maximum, Average, Sum, SampleCount

ClientConnections

파일 시스템에 연결된 클라이언트 수 표준 클라이언트를 사용하는 경우 탑재된 Amazon EC2 인스턴스당 하나의 연결이 있습니다.

참고

1분 이상의 기간에 대한 평균 ClientConnections를 계산하려면 Sum 통계를 기간(분 단위)으로 나눕니다.

단위: 클라이언트 연결 수

유효한 통계: Sum

StorageBytes

EFS 스토리지 클래스에 저장된 데이터의 양을 포함하여 파일 시스템의 바이트 크기입니다. 이 지표는 15분 CloudWatch 마다 방출됩니다.

StorageBytes 지표에는 다음과 같은 차원이 있습니다.

  • Total 는 모든 스토리지 클래스의 파일 시스템에 저장된 데이터의 측정 크기(바이트)입니다. 빈번EFS하지 않은 액세스(IA) 및 EFS 아카이브 스토리지 클래스의 경우 128KiB보다 작은 파일은 128KiB로 반올림됩니다.

  • Standard 는 EFS 표준 스토리지 클래스에 저장된 데이터의 측정 크기(바이트)입니다.

  • IA 는 EFS 빈번하지 않은 액세스 스토리지 클래스에 저장된 데이터의 실제 크기(바이트)입니다.

  • IASizeOverhead 는 작은 파일을 128KiB로 반올림한 후 EFS 빈번하지 않은 액세스 스토리지 클래스의 실제 데이터 크기(IA차원으로 표시됨)와 스토리지 클래스의 측정 크기 간의 차이(바이트)입니다.

  • Archive 는 EFS 아카이브 스토리지 클래스에 저장된 데이터의 실제 크기(바이트)입니다.

  • ArchiveSizeOverhead 는 작은 파일을 128KiB로 반올림한 후 EFS 아카이브 스토리지 클래스의 실제 데이터 크기(Archive차원으로 표시됨)와 스토리지 클래스의 측정 크기 간의 차이(바이트)입니다.

단위: 바이트

유효한 통계: Minimum, Maximum, Average

참고

StorageBytes 는 기본 1,024개 단위(키비바이트, 메비바이트, 기가비바이트 및 테비바이트)를 사용하여 Amazon EFS 콘솔 파일 시스템 지표 페이지에 표시됩니다.