Administrator Guide
내부 드라이브 용량
표 1에 나열된 용량 값은 DR4000/DR4100 시스템 릴리스에서 관련 오버헤드에 맞게 조정된 내부 드라이브 및 사용
가능한 실제 용량을 나타냅니다.
노트: 표 1에서 TB 및 GB는 각각 10진수 값의 테라바이트와 기가바이트를 나타내며 TiB는 2진수 값의 테비
바이트를 나타냅니다. 테비바이트는 표준 기반의 다중 2진 바이트로서 디지털 정보 스토리지의 단위입니
다.
표
1. 내부 드라이브 용량 및 사용 가능한 실제 용량
DR Series 시스템 드라이브 용량 사용 가능한 실제 용량(10진수) 사용 가능한 실제 용량(2진수)
3 TB (DR4100 시스템에만 해당) 26.79 TB 23.8 TiB
2 TB 17.9 TB 15.9 TiB
1 TB 8.89 TB 7.9 TiB
600 GB 5.29 TB 4.6 TiB
300 GB 2.47 TB 2.2 TiB
확장 선반 인클로저에서 지원하는 외부 데이터 스토리지 용량에 대한 일반적인 정보를 보려면 DR Series 시스템
및 데이터 작업의 "DR Series 확장 선반" 절을 참조하십시오.
외부 드라이브 용량
표 2에 나열된 용량 값은 DR4000 또는 DR4100 시스템에 지원되는 확장 선반 인클로저를 추가할 때 사용 가능한 외
부 드라이브의 추가적인 스토리지 용량을 나타냅니다. 추가적인 데이터 스토리지는 확장 선반 인클로저를 사용
하여 1 TB, 2 TB 또는 3 TB 용량 단위로 추가할 수 있습니다. 확장 선반 인클로저에 대한 자세한 내용은 DR Series
시스템 확장 선반 추가, 확장 선반 라이센스 설치 및 DR Series 시스템 - 확장 선반 케이블 연결을 참조하십시오.
표 2. 외부 드라이브 용량 및 사용 가능한 실제 용량
DR Series 시스템 드라이브 용량 사용 가능한 실제 용량(10진수) 사용 가능한 실제 용량(2진수)
1 TB 8.89 TB 7.9 TiB
2 TB 17.89 TB 15.9 TiB
3 TB 26.79 TB 23.8 TiB
Data Storage Terminology and Concepts
This topic presents several key data storage terms and concepts that help you to better understand the role that the DR
Series system plays in meeting your data storage needs.
Data Deduplication and Compression: The DR Series system design draws upon a wide variety of data-reduction
technologies that include the use of advanced deduplication algorithms, in addition to the use of generic and custom
compression solutions that are effective across a large number of differing file types. The system uses a concept of
content-awareness where it analyzes data to better learn and understand the structure of your files and data types.
Once this is learned, it uses this method to improve your data reduction ratios while reducing resource consumption on
the host. The system uses block deduplication to address the increasing data growth, and this is well suited to providing
the best results for routine and repeated data backups of structured data. Block-level deduplication works efficiently
where there are multiple duplicate versions of the same file. This is because it looks at the actual sequence of the data–
the 0s and 1s–that comprise the data.
13