비트필드 구조체에서의 바이트순서
안녕하세요
DNS 헤더 패킷의 내용을
덤프해서 보여주려고 하는데요
typedef struct _tagDNSHEADER{
unsigned short id;
unsigned char rcode : 4;
unsigned char z : 3;
unsigned char ra : 1;
unsigned char rd : 1;
unsigned char tc : 1;
unsigned char aa : 1;
unsigned char opcode : 4;
unsigned char qr : 1;
unsigned short qdcount;
unsigned short ancount;
unsigned short nscount;
unsigned short arcount;
}DNSHEADER;
VC++ 6.0 에서 일단 이렇게 헤더를 구성했습니다.
그런데 플래그들이 들어가는 2바이트에서 비트필드들의 순서를 어떻게 해야할지 좀
햇갈리네요
8비트를 선언하는 경우 요놈들을
1비트씩 순서대로 선언하면
먼저 선언한 놈이 메모리상에서 LSB 로 가고 마지막으로 선언한 놈이 MSB 가 되는데요
이것을 unsigned char 대신 unsigned int 로 하니까 달라지는거 같더군요?
비트필드 구조체에서 비트필드 멤버 선언순서와 메모리상에서의 비트위치,
unsigned char 로 선언하는것과 unsigned int 로 선언하는것의 차이
8비트 단위로 선언 안할시 다른 정상 멤버필드와의 패딩문제
또한 리눅스에서gcc 로 컴파일할때와의 차이
이런것들에 대해서 자세히 알려주세요~
일단 프로토콜 헤더이니까 관습적으로 Big
일단 프로토콜 헤더이니까 관습적으로 Big Endian방식으로 비트가 나열되어야 하는거죠?
우리가 쓰는 i386 호환칩들은 Little Endian방식이라 이를 다룰 때 거꾸로 나열되니 주의를 해야겠죠.
스트럭쳐 안에서 해결방법은 비트단위로 선언하지 않는 이상 없을거 같고, 패킷을 만들거나 패킷에서
스트럭쳐로 데이터를 읽어 올때 Endian에 맞춰서 만들거나 읽어 오는 수 밖에는 없을듯 합니다.
댓글 달기