아파치에서 2기가 이상의 파일을 다운 받지 못하는 이유는?
글쓴이: skimms / 작성시간: 월, 2003/03/24 - 12:34오전
타르와 gzip을 이용하여 웹사이트를 통제로 묶은다음
웹(apache 1.3.26)을 이용하여 백업 받고 있는데..
어느날 파일 크기가 2기가를 넘었습니다.
그렇게 되니 웹에서 다운이 안되네요..
LimitRequestBody 0
으로 무제한으로 해도 마찬가지네요.
httpd.apache.org로 들어가 검색해 봐도 도무지 알수가 없네요..
정확히 무슨 문제인지? 어떻게 해결해야 하는지 아는 고수님들
답변 부탁드립니다.
Forums:
잘은 모르겠는데..
파일 시스템이 2기가 이상을 지원하는지 확인해 보셨나요?
WaitplzplzWait
파일 시스템은 2기가 이상 지원됨을 확인했습니다.
답변해 주셔서 감사해요.. :lol:
파일 시스템은 2기가 이상 지원됨을 확인했습니다.
실제로 생성된 파일도 2.5기가 가량 되구요..
계속 증가중입니다...
지금은 scp를 이용하여 백업 받구있구요...
.
.
제가 알기론....
리눅스는 커널이 1G 어플이 3G 아닌가요?
<- 이거면 안 되는 게 없어~
정품 소프트웨어 사용 캠패인
흐
흐
2GB관련 다른문제....
좀 다른건데 생각나서 씁니다....그때는 SIGXFSZ시그널을 받고 아파치 데몬이 죽어버리는 상황이였습니다.
귀찮아서 제가 해당문제에 대해서 보낸 메일을 그냥 오려 붙입니다 --;;
httpd의 비정상동작으로 추정되되는데 /core에있는 httpd의 core파일이 SIGXFSZ(25) 시그널에의해 비정상종료를 하였는데 해당 건에대한 정보는 별로 없었으며 RedHat에 보고된 바로는 httpd에서 2GB이상의 파일을 다룰경우 생길수 있으며 보통 access-log를 지우지않거나 할경우 2GB가 넘으면서 발생할수 있다는 정보가 있습니다.
참조URL
https//bugzilla.redhat.com/bugzilla/show_bug.cgi?id=69520
access로그가 사고전의것이 남아있지 않는것을 보면 해당 로그까지 사라졌을(매우 드문경우입니다) 가능성도 있습니다.
core파일이 생긴시점은 13일 10시이며 kill등으로 작업을 하셧을때 SIGQUIT신호를받고 내부적으로 SIGXFSZ가 발생한것으로 보이며 sar을통한 시스템 로드에서는 12일 19시11부터 CPU idle이 100% 에서 99.99%를 차지하는것으로보아(평소시간대에는 98%이하입니다) httpd가 서서히 zombie가 되어 웹이 동작하지 않은것으로 판단됩니다.
일반적으로 Linux시스템의 ext2파일시스템은 4GB * fsblock으로 보통 2TB입니다.
Apache에서 2GB이상을 다루지 못하는 버그로 보이며 Apache의 업그레이드 혹은 튜닝이 필요할 것 같습니다.
이상입니다.
메모리 문제가 아니라.. 아파치 문제입니다.
아파치 컴파일 할때 파일 디스크립션이 아마도 32비트 signed int로 되었나봅니다.
레드햇에 7.x대 csh에 보시면 같은 현상이 나타납니다.
컴파일 할때 O_LARGEFILE 을 define하고 컴파일 해보세요.
단순히 src/include/httpd.h 파일에서#define
단순히 src/include/httpd.h 파일에서
#define O_LARGEFILE
을 추가하고 컴파일 하라는 말씀이시나요..??
댓글 달기