"100TB"의 파일 서버에 있는 파일을 단리하기 위해(2) ~ZiDOMA data편~

소개



파일 서버에 있는 많은 양의 파일을 분석하고 분리하기 위해
어떤 일을 해야 할까요? 그리고
전회(1회째의 투고)로 정리해 보았습니다만,

참고:
"100TB"파일 서버의 파일을 분리하기 위해 (1)
htps : // 이 m / 카린 _ 및 / ms / 8, 375f41에서 0에 4f754cfb

이번에는 실제로 이전에 소개 한 "ZiDOMA data"를 사용하여 분석해보십시오.
어떤 데이터를 얻었는지,
그리고 그 데이터를 다음에 어떻게 활용해 나가면 좋겠다고 생각했는지
기재하고 싶습니다.

ZiDOMA 데이터로 분석



실제로 ZiDOMA data로 디렉토리를 지정해 분석한 결과가 아래의 화면입니다.


(※폴더명이나 소유자 정보에는 모자이크를 넣고 있습니다.)

분석 결과 화면에는 다음과 같은 데이터가 출력되었습니다.
  • 각 디렉토리의 사용률 및 크기
  • 작성 일시, 갱신 일시, 최종 액세스 일시
  • 확장자
  • 소유자

  • (참고까지 100TB 미만의 데이터 분석에는 4~5일 만에 완료할 수 있습니다.)

    지정한 디렉토리를 클릭해 가면 하계층도 똑같이 분석되고 있었습니다.
    확실히 보고 각 디렉토리의 사용률이나 원 그래프에 있는 경향이 매우 알기 쉬웠습니다만,

    다만, 여기서 망설이던 것은,
    최종 목적의 불필요한 파일을 삭제하기 위해

    파일 서버 사용 (분석 결과) 사용자에게 배포

    에는 어떻게 하면 좋을까? 이었다.

    사용자별로 액세스할 수 있는 폴더가 다르므로
    ZiDOMA 데이터 화면을 그대로 사용자에게 보여줄 수 없습니다.

    그래서 주목한 것이 화면 오른쪽에 있는 CSV 데이터 출력 기능이었습니다.



    분석 결과를 CSV 데이터로 출력할 수 있다면,
    유저에게 유익한 정보로 가공해 전개할 수 있는 것이 아닌가? 라는 생각이었습니다.

    그럼 다음에
  • 어떤 형태로 하면 사용자에게 분석 결과를 볼 수 있는가?
  • 어떤 정보가 있으면 단리에 연결될 수 있는가?

  • 과제로 진행하려고했습니다.

    다음 번에는, 상기 2점에 대해 어떻게 검토했는지,
    실제로 어떤 데이터를 내려고 했는지 같은 점에 대해 정리하고 싶습니다.

    관련 기사:



    "100TB"파일 서버의 파일을 분리하기 위해 (1)
    htps : // 이 m / 카린 _ 및 / ms / 8, 375f41에서 0에 4f754cfb

    좋은 웹페이지 즐겨찾기