요즘 서버들은 전기를 많이 사용하고 IDC에서도 예전처럼 전기를 많이 주지 않기 때문에 대략 많이 넣어야 20대 정도 입니다. 제가 있는 회사는 전력을 통으로 계약을 한지라 랙당 전력을 좀 많이 쓸 수 있는 편인데.. 그래도 랙당 18대를 기준으로 넣습니다. 그러다 보니, 1U에 1U를 띄우게 되더군요. :-)
P3 장비를 사용할 때는 안띄우고 1랙에 40대 까지 넣어서 운영해 본적도 있습니다. P4 부터는 안되더군요. 열이 많이나서 서버가 오작동 하는 경우가 종종 생겼고, 전력이 딸려서 rack 전원이 내려가는 적도 있어 전력 관리를 하기 시작한 이후부터는 랙당 20대를 안되게 넣고 있습니다.
랙에 앞뒤 랙가이드쪽 보면 네모난 칸 있잖아요. 그 한두칸 정도만 띄워두고 빽빽하게 박아버리고..
어차피 시스템 사용량 제대로들 못 쓰시니까 괜히 되도않게 서버 댓수만 늘리기보다는 가능한한 최적화시켜서 서비스 배치하고 시스템 사용률 높여서 메모리랑 디스크 적당히 집적화(2U 서버니 1U보다 디스크는 많이 박힐테고..요즘 1U가 디스크 많이 박힌다고는 하지만..)시켜서 쓰시고..뭐 굳이 OS Level정도라도 분리를 해야겠다 싶으면 가상화까지 감안..(돈 없으면 ESXi라도..)
그 수준으로 쓰는게 시스템 안정성까지 감안한 안정적인 시스템 구성이 아닌가 싶습니다.
개인적으로는 그냥 4U급 장비 서너대만 퉁퉁박고 가상화 펑펑 붓고 등등등..의 구성이 좋다고 봅니다만..^^(정 Performance 이슈가 생기는 곳이라면 p6~p7에 LPAR로 가는 구성으로 초기 셋팅..) 그리고 랙은 너무 집적화시켜 쓸 필요는 없다고 생각해요. 솔직히 비용 구성으로 보면 랙 상면비용은 싸단 말이죠. 회선비용이 문제지..댓수가 100대 넘어가면 상면비용 고민때문에 가상화까지 감안하고 등등의 생각을 해 보겠지만..어지간한 중소레벨이라면 굳이 그런거 감안할 필요도 없고 랙 그냥 넉넉하게 쓰는게;;
위에서도 언급됐지만 전기문제도 있을텐데..요즘 cpu 자체는 전력소모량은 많지 않습니다. 단지 메모리나 Disk 집적도가 늘다보니 그런 부분에서의 전력소모가 좀 있고 SouthBridge같은 부분의 전력부하가 늘었다는 측면은 감안할 필요가 있겠네요. 그래도 랙 하나 보통 12~15A 기준으로 생각할텐데 15대 정도쯤 박는건 현 시스템의 경우라도 무리없는 편입니다. 먹기야 예전이 되려 더 먹었었죠 ^^ Intel 5000 시리즈까지 말이죠. 5100 Woodcrest 이후부터는 전기/발열때문에 속썩이는 경우는 잘 없는 편입니다.
참고로, 현대 서버 시스템에서의 전력/발열 트러블은 스토리지가 대부분을 차지합니다. :-) 서버는 무슨 화이트박스가 아닌바에야..(뭐 델이니 썬 x86이니 그런거 포함..슈퍼마이크로는 화이트박스 레벨을 넘어섰으니 제외..)
사실 공간을 띄우는건 발열 문제도 있기는 하지만, IDC에서의 랙당 전력 제한이라는것이 존재하기 때문에 그렇습니다.
몇년전만 해도, 랙당 10A 제한이였고, 요새는 거의 다 20A 로 올리긴 했지만, 아직도 10A(peak 15A) 제한인 곳이 종종 있습니다.
즉, 220V 일 경우 2200W~4400W 제한선이 존재하는 상태에서 서버가 전력을 peak시에 얼마나 먹을지 계산해보면 몇대나 꼽을 수 있는지 감이 오실겁니다.
물론 IDC가 아니라, 빌딩 건물이라면 예기가 좀 다릅니다. 콘센트 하나에서 얼마나 전력을 뽑아 쓸 수 있는지 우선 알아보아야 할 것이구요, 전력문제가 없다는 판단이면, 그다음에 발열이겠지요. 항온항습기 설치된 공간이면 풀렉에 half-1u 짜리로 앞뒤로 40개씩 80대 꽉꽉 채워 넣어서 작동해도 문제 없습니다 ^^
참고로, 풀가동하는 1u 시스템을 40개 꽉꽉 채워서 설치하면 발열이 엄청납니다.
-------------------------------------
김동수 - Prototype for Evolution
전에 각 서버를 1U 씩 공간을 두었습니다.
아무 이유 없습니다. 렉 공간이 남아서요 ^.^
서버 스펙에 그런것도 있나 모르겠네요!!
---------------------------------------------
git init
git add .
git commit -am "project init"
---------------------------------------------
---------------------------------------------
git init
git add .
git commit -am "project init"
---------------------------------------------
보통 각 서버마다
보통 각 서버마다 1U씩 띄울 겁니다.
요즘 서버들은 전기를 많이 사용하고 IDC에서도 예전처럼 전기를 많이 주지 않기 때문에 대략 많이 넣어야 20대 정도 입니다. 제가 있는 회사는 전력을 통으로 계약을 한지라 랙당 전력을 좀 많이 쓸 수 있는 편인데.. 그래도 랙당 18대를 기준으로 넣습니다. 그러다 보니, 1U에 1U를 띄우게 되더군요. :-)
P3 장비를 사용할 때는 안띄우고 1랙에 40대 까지 넣어서 운영해 본적도 있습니다. P4 부터는 안되더군요. 열이 많이나서 서버가 오작동 하는 경우가 종종 생겼고, 전력이 딸려서 rack 전원이 내려가는 적도 있어 전력 관리를 하기 시작한 이후부터는 랙당 20대를 안되게 넣고 있습니다.
제 경험상 주로
제 경험상 주로 발열문제가 아닐까 합니다 (IDC에는 들어가 본지 오래 되어서 그것 까진 잘 모르겠네요)
보통 브로셔들을 보면 렉에 빈공간없이 서버를 마운팅 했거나, 렉전용장비 케이스 오픈해 보면 쿨링 장비들이 그런식으로 배치되어 있어서 가능하지 않을까
싶기도 합니다만....
열이라는 장애 요인이 정균님 처럼 오작동도 있지만 누적되는 피로 같은 거라서 장비파트에 그닥 좋지 않았던것 같습니다 (특이 쿨링팬.....) :지극히 개인적인 경험입니다.....
그리고 1U 서버 와 2U 서버를 비교해 볼때 1U 서버가 발열에 좀더 취약한것이 아닐까 의심하는것이 아무래도 발열장치에 비해 좁은 서버공간이 아닐까 합니다.
모벤더사의 서버 Over temperature 한계치를 보면 1u 서버가 2u 서버에 비해 그 한계점이 좀 더 낮았던걸로 기억합니다.(이 한계치는 관리자가 조정가능)
1u 서버 마운팅하고 1u 띄우니 공간이 아까운것은 이해 하지만.(물론 벤더사 정품렉은 비싸죠 ^^) 열을 잡기 위해 더 가동되어야 하는 항온항습기의 전력
소비량도 생각하면 나름 비슷한(또이또이^^) 의 결과가 아닐까 합니다.
올여름 같이 무더운 여름날 항온항습기 나가보니 정말 돌아 버리겠더군요. 인프라의 중요성을 두번 강조해도 모자란다는......
그리고 한번씩 IDC놀러 가면 서버위에 서버 올려 놓으신 분들있던데 (저는 4단까지 봤습니만...) 나름 이유가 있으셨겠지만... 그냥 제가 관리하는 서버도 아닌데. 서버가 안스럽더군요 ...
또 밀어야 하나 아니 이제 인생 자체를 밀어야 한다..... (/ㅡ_-)/~
또 밀어야 하나 아니 이제 인생 자체를 밀어야 한다..... IT 관두는 젖비린내 SE (/ㅡ_-)/~
그러니까요. 그냥
그러니까요.
그냥 2U서버를 보편적으로 쓰고 공간은 적당히..1U 공간만큼 말고 그냥 한두칸..
랙에 앞뒤 랙가이드쪽 보면 네모난 칸 있잖아요. 그 한두칸 정도만 띄워두고 빽빽하게 박아버리고..
어차피 시스템 사용량 제대로들 못 쓰시니까 괜히 되도않게 서버 댓수만 늘리기보다는 가능한한 최적화시켜서 서비스 배치하고 시스템 사용률 높여서 메모리랑 디스크 적당히 집적화(2U 서버니 1U보다 디스크는 많이 박힐테고..요즘 1U가 디스크 많이 박힌다고는 하지만..)시켜서 쓰시고..뭐 굳이 OS Level정도라도 분리를 해야겠다 싶으면 가상화까지 감안..(돈 없으면 ESXi라도..)
그 수준으로 쓰는게 시스템 안정성까지 감안한 안정적인 시스템 구성이 아닌가 싶습니다.
개인적으로는 그냥 4U급 장비 서너대만 퉁퉁박고 가상화 펑펑 붓고 등등등..의 구성이 좋다고 봅니다만..^^(정 Performance 이슈가 생기는 곳이라면 p6~p7에 LPAR로 가는 구성으로 초기 셋팅..) 그리고 랙은 너무 집적화시켜 쓸 필요는 없다고 생각해요. 솔직히 비용 구성으로 보면 랙 상면비용은 싸단 말이죠. 회선비용이 문제지..댓수가 100대 넘어가면 상면비용 고민때문에 가상화까지 감안하고 등등의 생각을 해 보겠지만..어지간한 중소레벨이라면 굳이 그런거 감안할 필요도 없고 랙 그냥 넉넉하게 쓰는게;;
위에서도 언급됐지만 전기문제도 있을텐데..요즘 cpu 자체는 전력소모량은 많지 않습니다. 단지 메모리나 Disk 집적도가 늘다보니 그런 부분에서의 전력소모가 좀 있고 SouthBridge같은 부분의 전력부하가 늘었다는 측면은 감안할 필요가 있겠네요. 그래도 랙 하나 보통 12~15A 기준으로 생각할텐데 15대 정도쯤 박는건 현 시스템의 경우라도 무리없는 편입니다. 먹기야 예전이 되려 더 먹었었죠 ^^ Intel 5000 시리즈까지 말이죠. 5100 Woodcrest 이후부터는 전기/발열때문에 속썩이는 경우는 잘 없는 편입니다.
참고로, 현대 서버 시스템에서의 전력/발열 트러블은 스토리지가 대부분을 차지합니다. :-) 서버는 무슨 화이트박스가 아닌바에야..(뭐 델이니 썬 x86이니 그런거 포함..슈퍼마이크로는 화이트박스 레벨을 넘어섰으니 제외..)
다 비용 때문입니다.
회사에 돈이 많으면 많이 띄우고 없으면 별루 안 띄우고 때려 넣는게 경영자 보기에 좋습니다.
사실 공간을
사실 공간을 띄우는건 발열 문제도 있기는 하지만, IDC에서의 랙당 전력 제한이라는것이 존재하기 때문에 그렇습니다.
몇년전만 해도, 랙당 10A 제한이였고, 요새는 거의 다 20A 로 올리긴 했지만, 아직도 10A(peak 15A) 제한인 곳이 종종 있습니다.
즉, 220V 일 경우 2200W~4400W 제한선이 존재하는 상태에서 서버가 전력을 peak시에 얼마나 먹을지 계산해보면 몇대나 꼽을 수 있는지 감이 오실겁니다.
물론 IDC가 아니라, 빌딩 건물이라면 예기가 좀 다릅니다. 콘센트 하나에서 얼마나 전력을 뽑아 쓸 수 있는지 우선 알아보아야 할 것이구요, 전력문제가 없다는 판단이면, 그다음에 발열이겠지요. 항온항습기 설치된 공간이면 풀렉에 half-1u 짜리로 앞뒤로 40개씩 80대 꽉꽉 채워 넣어서 작동해도 문제 없습니다 ^^
참고로, 풀가동하는 1u 시스템을 40개 꽉꽉 채워서 설치하면 발열이 엄청납니다.
-------------------------------------
김동수 - Prototype for Evolution
김동수 - Prototype for Evolution