Znaczenie liczb szesnastkowych w informatyce [zamknięte]
Studiując programowanie 8085, 8086 i ogólnie mikroprocesory, zawsze mamy reprezentację szesnastkową. To dobrze, że liczby binarne są ważne w komputerach. Ale jak te liczby szesnastkowe są ważne? Jakieś historyczne znaczenie?
Byłoby miło, gdyby ktoś wskazał na niektóre historyczne dokumenty.
EDYTOWAĆ:
Jak komputery obsługują liczby szesnastkowe? Na przykład, co dzieje się w 8085, gdy jako dane wejściowe podano liczbę szesnastkową?