TAM 관점 주요 핵심 요약 — SAN / NAS / RAID / 모니터링 / 시나리오
| 구분 | SAN (Storage Area Network) | NAS (Network Attached Storage) |
|---|---|---|
| 접근 방식 | Block-level 접근. 서버 OS가 파일시스템 관리 | File-level 접근. NAS 장비가 파일시스템 관리 |
| 네트워크 | 전용 고속망 (Fibre Channel, iSCSI) | 일반 이더넷(LAN, TCP/IP) 사용 |
| 프로토콜 | FC, iSCSI, FCoE | NFS, SMB/CIFS |
| 적용 환경 | VMware, DB, ERP, 고성능·저지연 환경 | 파일공유, 백업, 사무용 문서 저장 |
| 장점 | 고성능, 낮은 지연, 대규모 확장 | 구성이 간단, 비용 저렴, 사용자 공유에 적합 |
| 단점 | 구성이 복잡, 장비/FC 스위치 비용 높음 | 파일 단위라 락 경합, 고성능 DB엔 부적합 |
| 레벨 | 구조 | 장점 | 단점 | 최소 디스크 |
|---|---|---|---|---|
| RAID 0 | Striping으로 여러 디스크에 분산 저장 | 가장 빠름 | 장애 1개만 나도 전체 데이터 손실 | 2개 |
| RAID 1 | 미러링 (동일 데이터 복제) | 안정성 높음, 복구 빠름 | 사용 가능한 용량이 절반으로 줄어듦 | 2개 |
| RAID 5 | Parity 1개로 복구 가능 | 성능·안정성 균형, 실무에서 많이 씀 | 재구성 시 느림, 쓰기 성능 RAID 10보다 떨어짐 | 3개 |
| RAID 6 | Parity 2개로 복구 | 디스크 2개까지 장애 허용 | 쓰기 성능 감소 | 4개 |
| RAID 10 | RAID 1 + 0 결합 | 빠르고 안전, DB에 적합 | 용량 효율 낮음 | 4개 |
| 방식 | 설명 | 장점 | 비고 |
|---|---|---|---|
| DAS | 서버에 직접 스토리지 연결 (SAS, SATA) | 구성 간단, 비용 저렴 | 확장성 낮아 단일 서버용 |
| SAN | FC/iSCSI 스위치를 통해 여러 서버가 공유 스토리지 사용 | 고성능, 대규모 VM/DB 환경에 최적화 | LUN, Zoning, Multipath 필요 |
| NAS | 네트워크 공유 형태로 파일 접근 | 사용자/팀 파일 공유에 적합 | SMB/NFS 권한 관리 중요 |
| 항목 | 설명 |
|---|---|
| Capacity (용량) | 전체 대비 사용량 추이 확인. 80~85% 이상이면 증설/정리 권고 |
| IOPS / Latency | VM이나 DB가 느릴 때 가장 먼저 보는 지표. 지연이 지속되면 디스크나 네트워크 병목 의심 |
| Firmware / Controller 상태 | Storage Controller, Disk FW가 최신인지 확인. 장애 예방 차원에서 중요 |
| Redundancy | Controller 이중화, Multipath, Power 이중화가 정상인지 점검 |
| Backup / Snapshot | RPO/RTO에 맞는 주기로 스냅샷/복제를 하고 있는지, 실패한 Job이 없는지 확인 |
| 상황 | 증상 / 의미 | TAM 대응 방향 | 비고 |
|---|---|---|---|
| RAID 1 디스크 1개 장애 | 미러 중 한쪽 디스크 Fail. 서비스는 계속 가능 | 장애 디스크 교체 → Rebuild 상태 모니터링 → FW 버전 확인 → 고객에 가용성 영향 공유 | 보통 서비스 중 교체 가능 (hot-swap) |
| RAID 5 디스크 1개 장애 | Parity로 살아있지만, 두 번째 장애 오면 전체 손실 | 즉시 RMA/교체 진행, Rebuild 시간 고객에게 공지, Rebuild 중 부하 작업 자제 요청 | Rebuild 오래 걸릴 수 있음 |
| RAID 5 디스크 2개 장애 | Parity 넘어서서 복구 불가 | 가장 최근 백업/스냅샷 복구 가이드, 장애 분석(RCA) 작성, 동일 모델 디스크 불량률 체크 | 중요 고객이면 P1/Escalation |
| RAID 6 디스크 1~2개 장애 | 여전히 서비스 가능하나 성능 저하 | 디스크 순차 교체, Rebuild 동안 모니터링, RAID 그룹 과밀 여부 리포트 | 대용량 NAS에서 자주 사용 |
| Rebuild 지연 / 실패 | 디스크 성능저하, 컨트롤러 문제 가능 | 컨트롤러 로그 수집, FW 업데이트 권고, 동일 시점 다른 디스크 SMART 확인 | 사전 용량/성능 리포트에 넣기 |
| 단계 | 설명 | TAM 체크 포인트 |
|---|---|---|
| 1) LUN 생성 | 스토리지에서 필요 용량/RAID 풀을 선택해 LUN(논리 디스크)을 만듭니다. | - 용량 계획(증설 여유분 포함) - RAID 정책 일관성 - 이름 규칙 수립 |
| 2) 이니시에이터 식별 | 서버 HBA(FC) WWPN 또는 iSCSI IQN을 확인해 스토리지에 등록합니다. | - 올바른 WWPN/IQN인지 확인 - 멀티패스용 포트가 모두 인식되는지 확인 |
| 3) 매핑 / 마스킹 | 생성한 LUN을 특정 호스트(서버) 또는 호스트 그룹에 매핑합니다. 다른 서버가 실수로 못 보게 마스킹 설정도 합니다. | - 잘못된 서버에 노출되지 않는지 - 호스트 그룹 구성 정확성 |
| 4) Zoning (SAN 스위치) | FC 스위치에서 스토리지 포트 ↔ 서버 포트 간 Zone을 구성해 통신 경로를 만듭니다. (iSCSI면 VLAN/ACL) | - 이중화 경로(Controller A/B) 모두 구성 - 다른 Zone과 충돌 없는지 |
| 5) 호스트 OS에서 디스크 스캔 | 서버 OS에서 새 LUN을 인식시키고, 필요 시 MPIO 설정 후 볼륨을 마운트합니다. | - OS별 MPIO 드라이버 확인 - 경로 Failover 테스트 |
| 6) 문서화 / 리포트 | LUN ID, 용량, 연결된 서버, 경로 수, 생성일 등을 CMDB나 고객 문서에 기록합니다. | - 변경관리(Change) 기록 - 고객에 할당 현황 리포트 전달 |
※ 이 페이지는 Lenovo / Nutanix / 일반 엔터프라이즈 스토리지 환경의 공통 개념을 정리한 것입니다.
실제 고객 환경에서는 벤더별 명칭과 GUI가 다를 수 있으니 해당 벤더 문서를 함께 참고하세요.