[완료] wget 과 같은 툴로 서버의 웹 디렉토리 내의 모든 파일 긁어오기 가능한가요?
글쓴이: oosap / 작성시간: 수, 2012/04/18 - 4:43오후
-r 옵션으로 재귀적으로 긁어와보니 링크로 연결된 문서들만 받아지고 링크가 없는 문서들은 받아지지 않는데요 링크가 없더라도 하위 디렉토리 내의 모든 문서를 긁어오는 게 가능한가요?
웹사이트 운영자들은 이런 걸 잘 알아야 보안을 구축할 수 있겠다는 생각이 들어 질문해봅니다.
Forums:
당연히 안됩니다.
일단은 웹서버와 해당 파일시스템의 보안설정은 기본만큼은 되 있다고 칩시다.
wget은 알고있는 path를 가져오는거고 -r은 문서를 통해서 알수있는걸 계속 따라가서 가져오는거 뿐이예요.
실제 존재하더라도 알 방법도 없고(찍을수야 있겠지만) 안다고 하더라도 그 파일의 권한이
제대로 설정되 있다면 읽혀지지 않습니다.
알려주셔서 감사합니다.
알려주셔서 감사합니다.
Thanks for being one of those who care for people and mankind.
I'd like to be one of those as well.
네 wget 에 대해 잘 몰랐는데 한번 써보니 너무나
네 wget 에 대해 잘 몰랐는데 한번 써보니 너무나 놀라워서 혹시 이런 것도 될까 궁금했었어요.
리눅스는 알면 알 수록 강력한 기능들이 많은 것 같습니다.
Thanks for being one of those who care for people and mankind.
I'd like to be one of those as well.
디렉터리 구조와 파일 목록을 미리 알고 있다면 받는
디렉터리 구조와 파일 목록을 미리 알고 있다면 받는 게 가능할 수도 있고 (다운로드 권한도 있어야 가능하겠죠.) 구조와 파일명을 모르면 불가능하겠죠.
파일 이름에 일정한 규칙이 있다면 가져오기가 쉽겠죠.
파일 이름에 일정한 규칙이 있다면 가져오기가 쉽겠죠.
--
마잇
답변해주신 모든 분들 감사합니다. wget 에 대해
답변해주신 모든 분들 감사합니다.
wget 에 대해 잘 알았습니다.
[완료]처리 할게요..
Thanks for being one of those who care for people and mankind.
I'd like to be one of those as well.
댓글 달기