Zaimplementuj program zamieniający ciąg zer i jedynek na liczbę w systemie dziesiętnym zakładając, że ciąg bitów reprezentuje liczbę całkowitą za pomocą naturalnego kodu binarnego
Zaimplementuj program zamieniający ciąg zer i jedynek na liczbę w systemie dziesiętnym zakładając, że ciąg bitów koduje liczbę całkowitą ze znakiem w reprezentacji uzupełnieniowej do dwóch U2.
Zaimplementuj program zamieniający ciąg 32 bitów (zer i jedynek) na liczbę rzeczywistą zakładając, że ciąg bitów koduje liczbę zmiennopozycyjną pojedynczej precyzji zgodnie ze standardem IEEE 754.
Skonstruuj algorytm, który ma na celu wyznaczenie największej możliwej liczby dodatniej możliwej do reprezentacji w pojedynczej precyzji. Zaimplementuj ten algorytm i porównaj uzyskaną wartość ze stałą FLT_MAX
zdefiniowaną w pliku nagłówkowym float.h
Skonstruuj algorytm, który ma na celu wyznaczenie najmniejszej liczby dodatniej większej od zera w reprezentacji pojedynczej precyzji. Zaimplementuj ten algorytm i porównaj uzyskaną wartość ze stałą FLT_MIN
zdefiniowaną w pliku nagłówkowym float.h
Napisz program, który zamienia ciąg cyfr na liczbę w systemie dziesiętnym, zakładając, że podany ciąg liczb reprezentuje liczbę całkowitą dodatnią zapisaną w systemie pozycyjnym o podstawie n
, gdzie liczba n
jest podaną przez użytkownika liczbą całkowitą z zakresu od 2 do 9.