Количество информации в компьютерной технике

Теория информации – это один из разделов математики. Поэтому одной из проблем связанных с информацией является измерение ее количества. Однако, само понятие информации можно определить по-разному. Следовательно, можно и по-разному измерить ее количество. Для определения количества информации наиболее распространены формулы Хартли и Шеннона.

В мире компьютеров количество информации определяется с помощью битов, байтов, килобайтов, мегабайтов, гигабайтов и т.д.

Бит – это наименьшая единица измерения информации в компьютерной технике. Можно сказать, это ячейка, которая может находиться в двух состояниях: либо 0, либо 1.

В одном бите можно зафиксировать лишь два состояния.
В двух битах уже четыре состояния.
В трех – 8.
В четырех битах – 16.

Количество информации в 1, 2 и 3 битах

Легко заметить, что количество состояний (N) системы определяется формулой N = 2a, где a – это количество бит. Так 28 = 256. Т.е используя 8 бит, мы можем зафиксировать 256 различных состояний (таблица состояний по понятным причинам не приводится).

В компьютерной технике 8 бит называются байтом. Почему именно восемь бит в байте? Ну, отчасти из-за того, что 256 состояний достаточно, чтобы закодировать алфавит того или иного языка мира. Т.е. на каждую букву отводится 1 байт, который может быть в соответствующем букве состоянии.

1 килобайт = 1024 байта (или 210),1 мегабайт = 1024 килобайта и т.д.

Изображения, использованные в статье