Administrator Guide
이프에 전체 페이지가 포함되지만 컨트롤러는 새로운 패리티를 계산하기 위해 새로운 데이터와 결합하여 2개의 디스크에서 이전
데이터와 이전 패리티를 읽어야 합니다. 이 작업은 읽기-수정-쓰기로 알려져 있으며, 순차적 워크로드의 성능을 저하시킵니다. 본
질적으로 디스크 그룹 대한 모든 페이지 푸시는 읽기-수정-쓰기로 이어집니다.
이 문제를 완화하기 위해 컨트롤러는 RAID-5 또는 RAID-6 디스크 그룹이 2의 제곱 데이터 디스크로 생성되지 않으면 64KB의 스
트라이프 단위를 사용합니다. 그러면 전체-스트라이프 쓰기가 더 많아지지만 디스크당 더 많은 I/O 트랜잭션을 사용하여 동일한
4MB 페이지를 푸시합니다.
다음 표는 RAID-5 및 RAID-6 디스크 그룹의 권장 디스크 개수를 보여줍니다. 각 항목은 디스크 그룹의 총 디스크 수와 디스크 그룹 내
등량의 데이터 및 패리티 디스크의 개수를 지정합니다. 패리티는 실제로 모든 디스크 간에 분산됩니다.
표 41. 권장되는 디스크 그룹 크기
RAID 레벨 총 디스크 수 데이터 디스크 수(등량) 패리티 디스크 수(등량)
RAID 6 4 2 2
6 4 2
10 8 2
RAID 5 3 2 1
5 4 1
9 8 1
순차적 워크로드와 RAID-5 및 RAID-6 디스크 그룹에서 최상의 성능을 얻으려면 2의 제곱 데이터 디스크를 사용합니다.
풀의 디스크 그룹
효율성과 성능을 향상시키려면 풀에서 유사한 디스크 그룹을 사용합니다.
• 디스크 카운트 분산: 예를 들어, 20개의 디스크를 사용하는 경우 하나의 10+2 RAID-6 디스크 그룹 및 하나의 6+2 RAID-6 디스크 그
룹보다 두 개의 8+2 RAID-6 디스크 그룹을 사용하는 것이 좋습니다.
• RAID 분산: 하나의 RAID-5 디스크 그룹과 하나의 RAID-6 디스크 그룹보다 두 개의 RAID-5 디스크 그룹을 사용하는 것이 좋습니다.
• 광역 스트라이핑으로 인해 쓰기 속도 면에서는 계층 및 풀이 가장 느린 디스크 그룹만큼 느립니다.
• 한 계층의 모든 디스크는 동일한 유형이어야 합니다. 예를 들어, 표준 계층에서 모두 10K 디스크를 사용하거나 모두 15K 디스크를
사용합니다.
소수의 대규모 디스크 그룹 대신 다수의 소규모 디스크 그룹을 생성합니다.
• 각 디스크 그룹의 쓰기 대기열 깊이 한계는 100입니다. 즉, 쓰기 집약형 애플리케이션에서 이 아키텍처는 지연 시간 요구 사항 내
에서 더 큰 대기열 깊이를 유지합니다.
• 더 작은 디스크 그룹을 사용할수록 원시 용량이 더 많이 소모됩니다. 아카이빙과 같이 성능에 덜 민감한 애플리케이션의 경우 더
큰 디스크 그룹을 사용하는 것이 바람직합니다.
계층 설정
일반적으로 3계층이 아닌 2계층을 사용하는 것이 가장 좋습니다. 가장 높은 계층은 가장 낮은 계층을 사용하기 전에 거의 채워집니
다. 컨트롤러에서 들어오는 쓰기의 공간을 확보하기 위해 콜드 페이지를 더 낮은 계층으로 강등하기 전에 가장 높은 계층이 95% 채워
져야 합니다.
일반적으로 SSD 및 10K/15K 디스크 포함 계층 또는 SSD 및 7K 디스크 포함 계층을 사용해야 합니다. SSD와 더 빠른 회전 디스크를 모
두 사용하여 가격과 성능의 조합을 충족해야 하지만 7K 디스크 없이 용량 요구 사항을 충족할 수 없는 경우는 예외일 수 있지만, 이런
경우는 드뭅니다.
다중 경로 구성
ME4 Series 스토리지 시스템은 ALUA(Asymmetrical Logical Unit Access)의 SCSI-3 표준을 준수합니다.
ALUA 호환 스토리지 시스템은 디바이스 검색 중에 최적 및 비최적 경로 정보를 호스트에 제공하지만 운영 체제는 ALUA를 사용하도
록 지시를 받습니다. 다음 절차를 수행하여 Windows 및 Linux 시스템에서 ALUA를 사용하도록 지시할 수 있습니다.
MPIO를 활성화하려면 다음 절차 중 하나를 사용하십시오.
모범 사례 165