В качестве единицы информации условились принять один бит ( англ . bit — bi nary , digi t — двоичная цифра) За единицу количества информации принимается такое количество информации, которое содержит сообщение, уменьшающее неопределенность в два раза. Такая единица называется бит Бит в теории информации — количество информации, необходимое для различения двух равновероятных сообщений. А в вычислительной технике битом называют наименьшую "порцию" памяти, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд Бит — слишком мелкая единица измерения. На практике чаще применяется более крупная единица — байт , равная восьми битам . Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=2 8 ) Широко используются также ещё более крупные производные единицы информации : 1 Килобайт (Кбайт) = 1024 байт = 2 10 байт, 1 Мегабайт (Мбайт) = 1024 Кбайт = 2 20 байт, 1 Гигабайт (Гбайт) = 1024 Мбайт = 2 30 байт. В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как: 1 Терабайт (Тбайт) = 1024 Гбайт = 2 40 байт, 1 Петабайт (Пбайт) = 1024 Тбайт = 2 50 байт.