웹 자료들을 pc로 쉽게 옮기기 위해 어떤 방법을 쓰시는지요.
글쓴이: foruses / 작성시간: 목, 2008/12/18 - 11:17오전
요 아래 글 중, 자료정리...에 대한 글을 흥미롭게 읽고, 비슷하지만 구체적인 주제로 토픽을 올립니다.
웹 자료들이란게 언제 사라질지 모르는 특성이 있잖아요. 그리고 항상 링크들로 이루어져 있고요.
그래서 pc로 저장을 할 때, 원하는 레벨까지 링크된 자료들도 함께 가져와야, 나중에 엑스박스를 보면서 눈물 흘리는 일이 없게 되죠.
저는 주로 글자체도 깔끔하고, 좌우 잘리는 일 거의 없는 것 같아서 pdf로 인쇄를 떠서 보관을 하는데,
좀 번거롭더라구요. 게다가 링크싸이트가 많을 경우 일일이 하나하나 pdf로 변환시켜야 하고,
더 큰 문제는 pdf파일이 낱개로 저장이 되기 때문에, 그들 사이의 구조가 파괴된다는데 있습니다.
좀 수월한 방법이 없을까요?
또 한가지 궁금한 것은,
예를 들어 어느 웹 페이지가 10개의 pdf 파일로 된 강의노트를 담고 있다면, 그걸 하나하나 클릭해서 다운받지 않고,
한번에 다운로드 받을 수는 없을까요? pdf 파일 이름들을 리스트 해서 알 수 있다면, wget 써서 한 방에 가져오기가 가능하겠지만,
자료가 많아지면 그것 또한 쉬운 일이 아니니까요.
좋은 의견 기다립니다.
Forums:
pdf로 저장하는 것도
pdf로 저장하는 것도 꽤 좋아보이네요^^,
저는 정말 중요한 것이라면 출력해서 보관하구요. IBM devloperWorks 라든지 닫힐 일이 절대 없으리라 생각되는 곳은 북마크로 남겨두고... 사이트가 웬지 금방 없어질 것처럼 보인다던가 블로그에 있는 자료라던가 하면 제 블로그로 자료를 긁어옵니다. 블로그는 주소로 가져오면 의외로 자료 손실이 꽤나 있어서요 -_-;
네이트에서 서비스하는 네이트 통 이라는 것이 있는데 사용 가능한 플랫폼이 제한되어 있다는 점만 제외하고선 원 투 클릭 이내로 자료를 긁을 수 있습니다.
긁어야 할 양이 많고 또 중요하면 그냥 워드프로세서 열어서 일일이 긁어 복사합니다 -_- 불안하면 불안한 만큼 수고가 따라야 하는가봐요;
한 페이지에 pdf 파일 10개 다운받기는 "해당 페이지 소스 보기 -> 정규표현식으로 pdf 링크만 긁고 -> wget으로 긁는다." 인데 10개라면 그냥 눌러 받는게 빠르겠네요^^;
──────────────────────────────────
전 파이어폭스의
전 파이어폭스의 Scrapbook 확장기능을 사용하고 있습니다. 웹의 자료는 언제 없어질지 모르니 필요하다 싶은건 개인적으로 저장하게 되더라고요. 구조상 출력은 힘들어 그냥 PC에 담아두기만 하는 편입니다. 간단하게 필요한 부분만 선택해서 저장할 수도 있고, 링크 단계를 설정해서 그만큼 저장할 수도 있습니다. 저장하고 나서도 불필요한 부분을 제거하거나 메모를 남기는 등의 기능이 있고요.
그리고 웹페이지에 링크된 특정 파일만 받고 싶다면 여러 프로그램들이 있겠지만 파이어폭스를 쓰다보니 DownThemAll! 을 쓰고 있습니다.
webzip, download manager
웹 사이트를 통째로 가져오는 프로그램으로 webzip 등이 있습니다. 그리고 reader 말고 acrobat 에서 특정 URL 및 그 아래의 몇 단계까지를 지정하여 pdf 를 만들 수 있습니다. 두 가지 모두 잘 안되는 사이트들도 있지만 일반적인 텍스트+사진 기반 사이트면 깔끔하게 잘 돌아갑니다.
그리고 많은 download manager 들이 일반적으로 웹 페이지 안의 특정 혹은 모든 파일들을 긁어 오는 기능을 지원합니다. 저는 firefox extension 인 DownThemAll! 을 쓰는데 특정 종류의 파일을 *.pdf 같은 형식이나 regex 로 지정하여 긁어올 수 있습니다.
그런데 경험상, 웹 페이지의 내용들이 내가 나중에 찾아볼 지도 모르는 몇년간은 사라지지 않을 거라 믿고 링크만 해두는 방법이 가장 수월했던 것 같습니다. 생각보다는 다들 오래 가더라구요.
댓글 달기