"100TB"의 파일 서버에 있는 파일을 단리하기 위해(2) ~ZiDOMA data편~
2062 단어 절단파일 서버분석자동화ZiDOMAdata
소개
파일 서버에 있는 많은 양의 파일을 분석하고 분리하기 위해
어떤 일을 해야 할까요? 그리고
전회(1회째의 투고)로 정리해 보았습니다만,
참고:
"100TB"파일 서버의 파일을 분리하기 위해 (1)
htps : // 이 m / 카린 _ 및 / ms / 8, 375f41에서 0에 4f754cfb
이번에는 실제로 이전에 소개 한 "ZiDOMA data"를 사용하여 분석해보십시오.
어떤 데이터를 얻었는지,
그리고 그 데이터를 다음에 어떻게 활용해 나가면 좋겠다고 생각했는지
기재하고 싶습니다.
ZiDOMA 데이터로 분석
실제로 ZiDOMA data로 디렉토리를 지정해 분석한 결과가 아래의 화면입니다.
(※폴더명이나 소유자 정보에는 모자이크를 넣고 있습니다.)
분석 결과 화면에는 다음과 같은 데이터가 출력되었습니다.
실제로 ZiDOMA data로 디렉토리를 지정해 분석한 결과가 아래의 화면입니다.
(※폴더명이나 소유자 정보에는 모자이크를 넣고 있습니다.)
분석 결과 화면에는 다음과 같은 데이터가 출력되었습니다.
(참고까지 100TB 미만의 데이터 분석에는 4~5일 만에 완료할 수 있습니다.)
지정한 디렉토리를 클릭해 가면 하계층도 똑같이 분석되고 있었습니다.
확실히 보고 각 디렉토리의 사용률이나 원 그래프에 있는 경향이 매우 알기 쉬웠습니다만,
다만, 여기서 망설이던 것은,
최종 목적의 불필요한 파일을 삭제하기 위해
파일 서버 사용 (분석 결과) 사용자에게 배포
에는 어떻게 하면 좋을까? 이었다.
사용자별로 액세스할 수 있는 폴더가 다르므로
ZiDOMA 데이터 화면을 그대로 사용자에게 보여줄 수 없습니다.
그래서 주목한 것이 화면 오른쪽에 있는 CSV 데이터 출력 기능이었습니다.
분석 결과를 CSV 데이터로 출력할 수 있다면,
유저에게 유익한 정보로 가공해 전개할 수 있는 것이 아닌가? 라는 생각이었습니다.
그럼 다음에
과제로 진행하려고했습니다.
다음 번에는, 상기 2점에 대해 어떻게 검토했는지,
실제로 어떤 데이터를 내려고 했는지 같은 점에 대해 정리하고 싶습니다.
관련 기사:
"100TB"파일 서버의 파일을 분리하기 위해 (1)
htps : // 이 m / 카린 _ 및 / ms / 8, 375f41에서 0에 4f754cfb
Reference
이 문제에 관하여("100TB"의 파일 서버에 있는 파일을 단리하기 위해(2) ~ZiDOMA data편~), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/karin_to/items/7e1dab963e0dc0ba2e9b
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
Reference
이 문제에 관하여("100TB"의 파일 서버에 있는 파일을 단리하기 위해(2) ~ZiDOMA data편~), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/karin_to/items/7e1dab963e0dc0ba2e9b텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)