2020-11-06 | 새로운 백업 방법
그리고 나는 7시간 동안 데이터를 관리하는 방법을 다시 생각하기 시작했다.만약 나의 설비가 고장나면 어떻게 합니까?만약 우리가 백업을 하지 않았다면 데이터는 분실되었을 것이다.이것이 바로 우리가 백업을 만든 이유입니다. (나는 당신이 이렇게 하기를 바랍니다.)
나의 방법은 적어도 취약한 것이다.시작할 때마다 내
home
디렉터리는 home
디렉터리 이외의 디렉터리에 백업된다.이것은 매우 약하다.드라이브가 다운되면 백업도 사라집니다.이것이 바로 내가 외부 드라이브에서 수동으로 폴더를 이동하는 이유다.외부 드라이브를 만들고 이동하는 시간이 약점입니다.차이가 클수록 데이터가 손실될 확률이 높습니다.현재 나의 차이는 난감할 정도로 높다. 아마도 30일일 것이다.하지만 나는 외장 하드디스크를 계속 꽂고 싶지 않다.이것이 바로 왜 나의 계획은 그것을 인터넷에 올리는 것입니까?하지만, 그래, 나는 구름 속의 개인 데이터를 안다...이것이 바로 내가 로컬에서 그것을 암호화하는 이유이다.그래서 나의 첫 번째 초도는 다음과 같다.
/home
|--> external drive (daily, unencrypted (simple to access, someone would have to break into my house))
|--> cloud (daily, encrypted (you don't get my data))
이 모든 것은 가능한 한 응용 프로그램과 원본 소프트웨어에 의존하지 않고 개방해야 한다.나는 데이터 미니멀리스트다. 이것은 내가 20GB의 데이터만 가지고 있다는 것을 의미한다.문제는 암호화 속도가 느리다는 점입니다(7z 및 i7 CPU 사용, 30분 소요).20GB의 데이터를 25mbit/s로 업로드하는 데 약 2시간이 소요됩니다.따라서 증량 백업이 더 좋은 해결 방안이 될 수 있다.다음 단계는 bash 스크립트로 자동으로 실행할 수 있는 간단한 해결 방안을 찾는 것입니다.내가 볼게Borg와Rclone.이 방법에 대해 어떤 생각이 있습니까?
무슨 좋은 공구가 있습니까?
Reference
이 문제에 관하여(2020-11-06 | 새로운 백업 방법), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://dev.to/miku86/2020-11-06-my-new-backup-approach-4nc6텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)