용량이 큰 디렉터리를 빠르게 묶는 방법이 없을가요?
글쓴이: wertyu / 작성시간: 월, 2005/01/17 - 11:52오전
디렉터리 1개를 백업해야 합니다.
디렉터리에 파일들이 많은데, 용량이 20Gb 정도됩니다.
이 디렉터리를 tar로 묶어서 다른 서버로 옮기려고 하는데
일단 tar로 묶는 시간만 몇 시간 이상 걸리고 있습니다.
vmstat으로 보니 IO도 엄청 나구 말이죠.
혹시나 하고 cp -R 로 디렉터리 통째로 복사를 해 봤는데, 이 시간도 마찬가지로 몇 시간이 걸리네요.
20Gb 정도 되는 디렉터리를 빠르게 묶는 방법이 없는지 궁금합니다.
일반적인 백업 시스템에 관련된 답변보다는 용량 큰 디렉터리를 빠르게 묶는 방법이 궁급합니다.~~~
참고로 ext3 파일 시스템이고, S-ATA 하드 12개를 묶어서 raid 5로 구성한 파티션입니다.
Forums:
복사만 하실 거면 rsync 로 복사하는 것도 도움이 됩니다.꼭
복사만 하실 거면 rsync 로 복사하는 것도 도움이 됩니다.
꼭 묶어야 하는 문제라면 서브디렉토리별로 2~3단계 정도 나누어서 묶는것도 좋은 방법이 될 수 있겠지요.
--
익스펙토 페트로눔
나누어서 압축하는 방법이 나을것 같긴 합니다만..잘 모르겠군요..
나누어서 압축하는 방법이 나을것 같긴 합니다만..잘 모르겠군요..
-L 1024 -Mcf test.tar <files>
(1M 로 나누어 압축하는 방법..)
고작 블로킹 하나, 고작 25점 중에 1점, 고작 부활동
"만약 그 순간이 온다면 그때가 네가 배구에 빠지는 순간이야"
감사합니다.
시간이 많이 걸릴 때를 보면 파일 사이즈가 1Gb를 넘으면서 현저히 느려지는데, -L 옵션이 가장 괜찮은 방법 같습니다.
그런데, -L 1024 줄 때의 문제가, 파일 사이즈가 1Mb가 되었을 때,
Prepare volume #2 for `tar/a.tar' and hit return:
이런 식으로 나오는데, 사용자가 입력을 하지 않아도, 자동으로 파일 명이 증가되고, 복구할 때도 자동으로 되는 방법은 없는지 궁금합니다.~
man tar로는 잘 모르겠네요^^
rsync or tar
CJH님께서 말씀하신 rsync 가 편하고 믿음직하죠.
그 외 방법이라면 tar 파이프와 rsh(ssh)를 쓰는 게 좋겠는데요.
# cd source_dir
# tar czf - . | ssh 서버 " ( cd target_dir && tar xzf - )"
라는 방법...
댓글 달기