Бит (англ. binary digit — двоичный знак) — количество информации, необходимое для различения двух равновероятных сообщений. Была предложена в качестве единицы информации американским ученым К. Шенноном.
В вычислительной технике битом называют наименьшую «порцию» памяти компьютера, необходимую для хранения одного из двух знаков двоичной системы счисления: «0» и «1», используемых для внутримашинного представления данных и команд.
Число бит памяти компьютера определяет максимальное количество двоичных цифр, вмещаемых им; число бит данных есть количество двоичных разрядов, в которых они записаны.
На практике чаще применяется более крупная единица — байт, равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=28). Широко используются также еще более крупные производные единицы информации: килобайт (Кбайт = 1024 байт), мегабайт (Мбайт = 1024 Кбайт) и гигабайт (Гбайт) = 1024 Мбайт).