네트웍 카드 추가에 대해.네트웍 카드가 늘어나면 전송폭이 늘어
글쓴이: cmcchoi / 작성시간: 수, 2005/06/22 - 6:29오후
오늘 수퍼유저를 들여다보던중에 흥미를 끄는 글을 봤습니다.
지금 네트웍 대역폭이 아무래도 딸리는지 아니면 원래 그런것인지 궁금한 증상이 한두개가 아니라서요.
삼바서버에서 1대가 카피를 하면 20분이 2대가 같은 파일을 땡기면 40분정도로 그리고 3대가 붙어서 땡기면 시간은 더 늘어납니다..
그걸 극복하기 위해 클러스터화를 하려고 하다가.
슈퍼유저에 이런게 있더군요.
렌카드를 늘리면 그만큼 대역폭이 늘어난다.
정말 그런가요?
혹시 이게 삼바에도 유용하게 작동할까요?
한컴에 렌카드를 4개정도 달아서 같은 스위치 허브단에 물리면
파일카피에 시간이 조금 줄어들까요?
이에 대해서 아시는분 계시면 뎃글좀 부탁드립니다..
질문의 요지는 .
리눅스에서 렌카드를 추가하면 추가한만큼 네트웍 대역폭이 커지고 ..그에 따라 카피속도가 늘어날까요?여러대에서 동시에 카피를 시켜도?
해보지는 못하고 혹시라도 효과를 보신분들이 계시면 뎃글 부탁드립니다..
삼바입니다.
Forums:
두개 이상의 랜카드를 묶어서 bonding 시키면 그만큼 대역폭을 더 쓸
두개 이상의 랜카드를 묶어서 bonding 시키면 그만큼 대역폭을 더 쓸 수 있습니다. 아니면 기가비트 이더넷을 쓰셔도 더 좋고요(요즘에는 가격도 많이 저렴하니까). 다만 한계는 있습니다.
보통 100M x 2 개 정도는 많이 쓰는것 같더군요. 그렇다고 100M x 4 정도로 했을때 400Mbps 가 다 나오는지는 모르겠습니다.
--
익스펙토 페트로눔
대역폭이 어느정도 이상 늘어난다음부턴 디스크의 역량에 따라 달라질듯 하군
대역폭이 어느정도 이상 늘어난다음부턴 디스크의 역량에 따라 달라질듯 하군요. 서버와 마찬가지로 억세스가 빈번한 디스크라면 IDE 보단 SCSI 가 속도에 훨씬 유리할것같구요.
---------------------------------------
http://www.waitfor.com/
http://www.textmud.com/
그리고 samba 자체를 튜닝할 여지도 많이 있으니까 찾아 보세요.
그리고 samba 자체를 튜닝할 여지도 많이 있으니까 찾아 보세요.
--
익스펙토 페트로눔
속도가 느려지는 원인은 여러가지 입니다.1. samba가 쓰는 CIF
속도가 느려지는 원인은 여러가지 입니다.
1. samba가 쓰는 CIFS 특성상 사용자가 늘어나고, I/O가 늘어 날수록 성능이 급격하게 내려갑니다.
2. 네트워크 성능
3. disk I/O
fast ethernet(100M bps) 를 스위칭 허브에 연결하여 사용한다면
2번문제는 아니라고 생각됩니다.
제가 보기에는 1번 이나 3번이라고 생각이 되네요.
CIFS는(흔히들 쓰고 있는 윈도우 파일공유) 용량이 큰 파일을 공유하기에는 적합하지 않습니다.
NFS 와 비교하면 성능 차이가 엄청납니다.
삼바를 쓰셔야 한다면 디스크 성능을 올림으로써 어느정도 해결을 할 수 있습니다.
array를 구성해서 사용하시는게 좋겠군요.
이왕이면 SCSI disk로 말이죠.
IDE disk도 특성상 I/O가 늘어나면 성능이 떨어집니다.
S-ATA 는 많이 좋아지긴 했더군요.
여러개의 랜카드로 속도를 올리는 방법을 bonding 이라고 합니다.
bonding로 속도를 올릴수는 있겠습니다만,
Disk 성능이 안 따라 주면 말짱 황이겠죠.
네트워크 성능 문제가 확실하다면 bonging 대신 Gigabit ethernet을 설치하세요.
LC type(광 케이블 방식)은 비싸니까 UTP type으로 하시면 될겁니다.
UTP type Gigabit은 별로 안 비쌉니다.
(흠.. 허브도 바꾸셔야 겠군요.)
그리고 케이블은 카테고리 6 type으로 하셔야 어느정도 giga 성능이 나올겁니다.
[quote="cjh"]두개 이상의 랜카드를 묶어서 bonding 시키면
이더넷 채널 본딩을 할려면 스위치에서 본딩을 지원해야 하지 않나요?
예전에 본딩을 해 본적이 있는데, 스위치에서 지원해야 한다고 누가 그러던것 같아서요..
그때 당시 L4 type 스위치여서 그냥 했는데.. 그냥 되는지도 궁금합니다.
저는 100mb(풀 듀플랙스) x2 로 본딩해서 업/다운 동시 총 트래픽이 400mb/s 가까이 나왔습니다.
i/o는 3ware ide raid(raid0) 이였구요. :)
따로 상단허브도 교체해야되나요?
bonding 테스트하다가 실패했습니다.
관련된 문서에는 레뎃에는 기본적으로 본딩이 선택되어잇다고 하고 모듈도 잇길래 그냥 문서대로 올렷는데..먼가 안되는군요.
현제 렌카드 3개는 다 인식하지만. 먼가 안되고 잇습니다. 커널컴파일부터 살펴봐야될뜻해서 아직 손은 안대고 잇습니다.
23일 허브가 들어왓는데. 저게 어느 정도 기종인지 궁금하군요..
qos를 지원하고 머시기 막 써잇는데 당취 허브는 그넘이 그넘이라 생각해서요.
아주 막강한 성능을 원하는게 아니고 이번꺼는 대충 사타 레이드0 으로 2개정도 묶고 .패치 서버를 운영하려고 합니다.
패치 서버는 디스크 io보다는 한번에 많은 컴터가 접속해서 디스크 억세스 률이 그리 크지 않다고 생각하고 있습니다.
나중에 쓸넘은 스카시에 발렌싱넣어서 해줘야겟저..
하나씩 해보고 나서 결과를 올리겠습니다.
좋은 정보 감사합니다.
참 본딩에 관련된 자료가 어디 있으면 위치점 부탁드립니다.
댓글 달기