Ogólnie, czy lepiej jest zdefiniować pewne określone parametry (np. (char *) UserIPaddr="192.168.0.5"
, (int) MAX_BUF=1024
) przez #define
lub constant char */ int
?Kiedy użyć #define lub stałej char/int?
Przeczytałem niektóre wątki, że lepiej nie używać #define
, gdy jest to możliwe. Jednak widzę dość powszechne wykorzystanie #define
na kodów open source one example z kodem źródłowym:
#define IEEE80211_WLAN_HDR_LEN 24
a_uint8_t *iv = NULL;
a_uint16_t tmp;
a_uint16_t offset = IEEE80211_WLAN_HDR_LEN;
#define
można by uniknąć, aby nie używać, ale zastanawiam się, dlaczego to było korzystne stosowanie #define w tym przypadku, na przykład . Jak powinienem zdecydować, kiedy używać #define
, czy też nie?
Co z 'wyliczeniem'? – Potatoswatter