HTTP 클라이언트 제작 중입니다.
GET HTTP/1.0 /index.html
로 웹페이지를 다운 받는데요, 같은 서버에 있는 다른 웹페이지를 다운 받기를 원할 때에도 소켓을 열고 닫고를 반복해야 되나요? 이를 테면, socket, connect, send, recv, close 를 반복하며 /index.html, /login.html 두 파일을 다운 받아야 되는지요.
네. 그렇습니다.
socket()은 그냥 써도 되겠지만, connect()~close()는 반복해야 합니다.
1.0 은 그렇습니다.
HTTP 1.1 엔 keep-alive-mechanism, request pipelining 이 있습니다.
OTL
텍스트 포맷에 대한 자세한 정보
<code>
<blockcode>
<apache>
<applescript>
<autoconf>
<awk>
<bash>
<c>
<cpp>
<css>
<diff>
<drupal5>
<drupal6>
<gdb>
<html>
<html5>
<java>
<javascript>
<ldif>
<lua>
<make>
<mysql>
<perl>
<perl6>
<php>
<pgsql>
<proftpd>
<python>
<reg>
<spec>
<ruby>
<foo>
[foo]
네
네. 그렇습니다.
socket()은 그냥 써도 되겠지만, connect()~close()는 반복해야 합니다.
HTTP 1.1 엔
1.0 은 그렇습니다.
HTTP 1.1 엔 keep-alive-mechanism, request pipelining 이 있습니다.
OTL
댓글 달기