Rozważmy następujący test jednostkowy:Dlaczego Guid.ToString ("n") nie jest taki sam jak ciąg szesnastkowy generowany z tablicy bajtów tego samego identyfikatora GUID?
[TestMethod]
public void TestByteToString()
{
var guid = new Guid("61772f3ae5de5f4a8577eb1003c5c054");
var guidString = guid.ToString("n");
var byteString = ToHexString(guid.ToByteArray());
Assert.AreEqual(guidString, byteString);
}
private String ToHexString(Byte[] bytes)
{
var hex = new StringBuilder(bytes.Length * 2);
foreach(var b in bytes)
{
hex.AppendFormat("{0:x2}", b);
}
return hex.ToString();
}
Oto wynik:
Assert.AreEqual failed. Expected:<61772f3ae5de5f4a8577eb1003c5c054>. Actual:<3a2f7761dee54a5f8577eb1003c5c054>.
dlaczego "b" i "c" również nie zostały zmienione? – Sebastian
@SebastianGodelet - ponieważ są one "krótkie" zamiast "int". – ChrisF
Myślałem, że wszystko większe niż jeden bajt podlega zasadzie endianess: 'short s = 0xaf21;' może być przechowywane: | af | 21 | lub | 21 | af | – Sebastian