대용량 텍스트 파일을 C++로 빨리 읽어내는 방법이 궁금합니다.
글쓴이: kleinstein / 작성시간: 수, 2009/10/28 - 6:15오전
우연히 notepad++ 라는 텍스트 편집기를 알게되었는데요.
굉장히 긴(혹은 큰, 대략 10MB 가 넘는) 텍스트 파일도 상당히 빨리 읽어내는데에 아주 깜짝 놀랐습니다.
일반적으로 라인별로 읽어내서 파일의 끝까지 for 문 같은걸로 반복시키면 한 몇분씩 걸리는게 일반적이라고 생각했는데..
도대체 어떻게 이렇게 빨리 읽어서 화면에 뿌릴수 있는건지 너무 궁금합니다.
더군다나 읽어낸 다음 특정 단어를 내용중에서 찾을때에도 상당히 빨리 찾아내는것에 감탄했습니다.
어떻게 하면 큰 텍스트 파일을 이렇게 빨리 읽어낼수 있는건가요?
Forums:
mmf & thread
아마 Memory Mapped File을 사용해서 파일을 읽을 겁니다, 보통은 thread로 라인엔드하고 텍스트 어트리뷰트(예를 들면 신택스 하일라이팅이나 라인 데코레이션 따위)를 처리합니다... notepad+라면 아마 공개 에디터인 scintilla를 사용하지 싶은데요. scintilla가 꽤 막강하긴 하지만 상용 에디터보다는 성능이 좀 떨어지는 편입니다. 기가 단위의 대용량 파일을 처리하거나 할 때 말이에요.
그게... 빠른 거라고
그게... 빠른 거라고 할 순 없지 않나요...?
파일을 일정 크기까지 읽어서 메모리에 저장하다가 사용자가 원하는 부분으로 가서 내용을 텍스트로 보여주는 건데...
일반적으로 생각할 수 있는 가장 단순한 텍스트 리더 알고리즘에서도 버퍼 크기와 버퍼를 넘는 사이즈의 파일에 대한 처리를 어떻게 해주느냐에 따라서 속도가 정해지는데, 버퍼를 5-30메가 정도로 잡으면 텍스트 파일은 웬만하면 쉽게 처리될 테고요....
굳이 string 변수에다가 null 문자를 기준으로 일일이 나눠 넣어서 처리한다는 고정관념만 깨면 되죠..
그게... 빠른 거라고
그게... 빠른 거라고 할 순 없지 않나요...?
파일을 일정 크기까지 읽어서 메모리에 저장하다가 사용자가 원하는 부분으로 가서 내용을 텍스트로 보여주는 건데...
일반적으로 생각할 수 있는 가장 단순한 텍스트 리더 알고리즘에서도 버퍼 크기와 버퍼를 넘는 사이즈의 파일에 대한 처리를 어떻게 해주느냐에 따라서 속도가 정해지는데, 버퍼를 5-30메가 정도로 잡으면 텍스트 파일은 웬만하면 쉽게 처리될 테고요....
굳이 string 변수에다가 null 문자를 기준으로 일일이 나눠 넣어서 처리한다는 고정관념만 깨면 되죠..
댓글 달기