Информация

Получение информации человеком

Раздел: 
Информация

Человек как животный организм может получать информацию с помощью органов чувств (глаз, ушей, носа, языка, кожи, мышц). Соответственно этому и различают виды информации: зрительная, звуковая, обонятельная, вкусовая, осязательная, мышечное чувство.

Различные виды информации не равноценны между собой по "информативности" для человека. Больше всего человек воспринимает зрительной информации (около 90%), около 5% звуковой, остальные виды составляют незначительные проценты.

Кроме того в мире есть информация, которую человек не может получить с помощью имеющихся у него органов чувств. Например, мы не слышим ультразвука, не чувствуем магнитное поле Земли, наше зрение имеет ограничения по дальности. Однако недоступную нам как живым организмам информацию можно получить, используя различные технические средства. Они преобразуют полученные данные в ту форму, которую человек способен воспринимать. Однако нередко при этом человек должен уметь правильно интерпретировать данные. Например, мы не можем точно оценить уровень освещенности в помещении. Прибор может точно показать этот уровень. Однако чтобы понять показания и сделать вывод о достаточности освещенности, человек должен обладать специальными знаниями.

Понятие информации

Раздел: 
Информация

Информация является основным предметом изучения для науки информатика.

Слово «информация» большинству интуитивно понятно, т.к. данное понятие постоянно используется в повседневной жизни. Очевидно, что люди передают друг другу информацию, обрабатывают ее, создают новую.

Но что же такое информация как научное понятие? Можно ли дать однозначный ответ на данный вопрос? В настоящее время - нет. Определение термина «информация» зависит от контекста, в котором он употребляется. Когда понятию невозможно дать однозначное определение, то оно вдруг становится почти философским, и каждый автор может претендовать на собственное определение. Факт лишь то, что информация – это фундаментальное научное понятие, наряду с веществом и энергией. Однако информация нематериальна, возможно существование информации следует рассматривать как результат сознательной умственной деятельности человека.

В определенных науках Вселенную рассматривают с точки зрения потоков вещества и энергии. Однако можно посмотреть на мир с точки зрения потоков информации. Например, биологический объект, создавая себе подобного, передает ему генетическую информацию; получивший информацию человек может преобразовать ее в знание и, следовательно, немного изменить свое сознание.

Из литературы можно выделить несколько определений информации, характерных для различных наук. Например, для физики характерно следующее определение. Информация - это неотъемлемое свойство всех существующих элементов и систем, выражающая их смысл существования и сама существующая вечно. Это определение не включает деятельность человека. Творчество и изобретения – это новая информация, ранее не существовавшая во Вселенной.

А вот достаточно интересный подход к определению информации. Информация - это отражение разнообразия в существующем мире. Конечно, ведь если всё одинаково, то это, по сути, пустота и отсутствие информации. Отсюда следует, что чем больше разнообразия в системе, тем больше в ней информации.

Определение К. Шеннона: Информация – это снятая неопределенность. Чтобы пояснить это, можно прибегнуть к следующей аналогии: человек не знает содержание какого-либо предмета, но чем больше изучает его, тем большей информацией о нем имеет и тем меньше неизвестности (неопределенности) у него по этому предмету. Можно ли предположить, что когда-нибудь вся неопределенность во Вселенной будет снята человеком (его разумом, сознанием, деятельностью и т.п.)? Ведь если посмотреть, то постепенно, в результате развития цивилизации, неопределенность уменьшается, а объем информации, которой человечество располагает, растет.

Если рассматривать все человечество в его эволюции как некую единицу, то можно усмотреть, что это самое человечество занимается получением, накоплением, обработкой и созданием новой информации.

Можно говорить об информационном рывке в настоящее время, т.к. современные техника и технологии позволяют быстро обрабатывать информацию и обмениваться ей.

Информация - как фундаментальное научное понятие

Можно сказать, что информация в широком смысле – это отражение реального мира; а в узком – любые сведения, являющиеся объектом хранения, передачи и преобразования.

С практической точки зрения информация всегда представляется в виде сообщения. Информационное сообщение связано с источником сообщения, получателем сообщения и каналом связи.

Схема передачи информации

Сообщения от источника к приемнику передается в материально-энергетической форме (электрический, световой, звуковой сигналы и т.д.). Человек воспринимает сообщения посредством органов чувств. Приемники информации в технике воспринимают сообщения с помощью различной измерительной и регистрирующей аппаратуры. В обоих случаях с приемом информации связано изменение во времени какой-либо величины, характеризующей состояние приемника. В этом смысле информационное сообщение можно представить функцией x(t), характеризующей изменение во времени материально-энергетических параметров физической среды, в которой осуществляются информационные процессы.

Функция x(t) принимает любые вещественные значения в диапазоне изменения времени t. Если функция x(t) непрерывна, то имеет место непрерывная (или аналоговая) информация, источником которой обычно являются различные природные объекты (температура, давление, влажность и др.). Если функция x(t) дискретна, то информационные сообщения явно разделяются на отдельные элементы (например, как слова в тексте).

В современном мире информация, как правило, обрабатывается на вычислительных машинах. Поэтому наука информатика, помимо прочего, включает в себя изучение вычислительных машин. Компьютер (или вычислительная машина) – это устройство преобразования информации посредством выполнения какой-либо программой ряда операций.

Очень широко употребляется еще одно понятие – данные. Его принято применять в отношении информации, представленной в виде, позволяющем хранить, передавать или обрабатывать ее с помощью технических средств. Поэтому наряду с терминами «ввод информации», «обработка информации», «хранение информации», «поиск информации» используются термины «ввод данных», «обработка данных», «хранение данных» и т.п.

Информация существует не только в виде данных, но и в виде знаний. Здесь знания – это совокупность объективных фактов, способов и технологий, систематизированных и дающих реальное представление о предметах, процессах и явлениях, т.е. специальным образом структурированная информация.

Знания могут быть декларативными и процедурными. В первом случае это какая-либо понятая человеком информация, а во втором - это умение решать определенные задачи, т.е. владение алгоритмами конкретного действия.

Провести четкую грань между понятиями "информация", "данные" и "знания" почти невозможно.

Данные и знания в виде информационных потоков циркулируют в информационных системах. Сбор, накопление, обработка, хранение и использование информации в информационных системах осуществляются с помощью информационных технологий. Информационные технологии – это машинизированные (инженерные) способы обработки информации, которые реализуются посредством автоматизированных информационных систем.

Изображения, использованные в статье

Хранение информации человечеством

Раздел: 
Информация

Человек в отличие от других объектов живого мира может хранить информацию не только в своей голове. Для хранения накопленной цивилизацией информации используются различные носители (книги, магнитные ленты, жесткие диски и т.п.).

Можно проследить как исторически развивались средства хранения информации и какой эффект это имело на все общество:

  1. На заре человечества появляется язык. С его помощью люди передают знания об окружающем их мире из поколения в поколение с помощью личного контакта друг с другом. Возможности языка открывают большие возможности в обозначении объектов окружающего мира и описания процессов в нем, чем простое подражание поведению (как у животных).
  2. Человек не всегда может передать знания лично. Потребовалось сохранять информацию отдельно от человека. Придумали письменность.
  3. Количество информации растет. Однако письменность как таковая не позволяет ей широко распространяться в массы. Нужен легко доступный носитель этой информации. Изобретение печатного станка позволяет сделать большой шаг вперед в развитии общества. Теперь многие люди могут получить интересующие их знания намного легче.
  4. Объем информации в обществе продолжает расти. Появляется много информации, нуждающейся в предварительной обработке, которую человеку трудно сделать (например, математические вычисления). Изобретение ЭВМ. Параллельно с возможностью хранения больших объемов информации и ее обработки, появление Интернета и Всемирной паутины делают информацию легко доступной каждому человеку на планете.

В настоящее время информация, накопленная цивилизацией, активно переводится на электронные носители. Далее она с легкостью может циркулировать по глобальным сетям.

Можно выделить различные формы хранения информации. Ее можно хранить в виде текста, как какие-то числовые данные, изображения, видео.

Представление об информационном ресурсе

Информационный ресурс – это информация, являющаяся знанием, т.е. обладающая всеми атрибутами знания.

Важным для информационного ресурса является форма существования и представления знаний. Знание – это отражение той или иной стороны объективной реальности в виде идей, понятий, представлений о каком-то предмете или явлении.

При этом не все знания, имеющие атрибуты информации, могут выступать в качестве информационного ресурса. Для последнего важно его использование человечеством, в то время как знание и информация, могут оставаться не востребованными по причине своей малодоступности в силу ряда причин. Поэтому на сегодняшний день существует проблема извлечения максимума информации из сообщений, накопленных за всю историю человечества и превращения ее в информационный ресурс. Обычно при этом происходит превращение книжных описаний и других рассеянных знаний в алгоритмы и программы, что является частью работы по формированию информационного ресурса.

Главная трудность в понимании природы и функций информационного ресурса как интеллектуального ресурса, фактора коллективного творчества состоит в раскрытии механизма перехода знаний в силу, способов его воздействия на материальные факторы прогресса.

Особенности информационного ресурса

  1. Неисчерпаемость. Характерное отличие от материальных ресурсов. По мере развития общества и роста потребления знаний запасы информационных ресурсов не убывают, а растут.
  2. Имеет потенциальное значение. Информационный ресурс может проявиться как движущая сила, только соединяясь с другими ресурсами – опытом и квалификацией персонала, техникой, энергией, сырьем.
  3. Эффективность применения. Связана с эффектом повторного производства знаний: получение знаний требует большого количества усилий, в то время как его воспроизводство осуществляется с меньшими затратами труда.
  4. Непосредственно включает науку в состав производственных сил. Осуществляется переход к производственным системам, основой функционирования которых служат информационные ресурсы.
  5. Возникает в результате творчества. Любой умственный труд, будь то наука или управление, включает две части: рутинную и творческую. Увеличение умственной работы за счет рутинной ее части не ведет к росту информационного ресурса.

Формы информационного ресурса

Информационный ресурс может существовать в двух формах: активной и пассивной. Пассивны книги, банки данных и т.п.

К активным ресурсам относятся модели, алгоритмы, программы, проекты, базы знаний. Их можно трактовать как стадии созревания информационного ресурса, степени доведения его до готовности и превращения в силу.

Модель – это описание системы, отображающее определенную группу ее свойств. Создание модели системы позволяет предсказывать ее поведение в определенном диапазоне условий.

Алгоритмы подразделяю в зависимости от степени общности. Важно стремиться к созданию решающих алгоритмов.

Программа и проект – конечные, синтетические формы существования информационного ресурса в его жизненном цикле. Программа или проект непосредственно противостоят энтропии рассматриваемого объекта. В этом плане вводится понятие информационной емкости программы, которое обозначает величину потенциального уменьшения неопределенности. В ходе реализации программы идет как бы заполнение пространства объекта информацией, которая в нем сконцентрирована.

Модель, алгоритм, программа, проект и особенно база знаний как активные формы информационного ресурса – это антиэнтропийные инструменты. Однако программа и проект выделяются среди них своей закономерностью и готовностью к прямому информационному воздействию на объект с целью снятия его неопределенности.

Свойства социальной информации

Раздел: 
Информация

Для человека важно не столько количественная характеристика информации, сколько ее свойства связанные с познанием окружающего мира. Для человека информация может быть важной или нет, полной или нет и т.д. Другими словами, для социальной информации важно ее качество.

Следует оговорить, что различные авторы выделяют различные свойства информации.

  1. Ценность информации. Чем важнее задача, которую решает человек, тем ценнее информация, требуемая для ее решения.
  2. Доступность информации. Например, если тот или иной текстовый материал есть во Всемирной паутине, а у Вас есть подключение к сети Интернет, то получить информацию проще, чем если бы текст был представлен в какой-нибудь библиотеке, до которой еще надо добраться.
  3. Понятность информации. Сообщение на японском языке может быть непонятно для россиянина, даже если содержит ценную информацию.
  4. Полнота информации. Достаточность информации для решения определенного спектра задач.
  5. Избыточность информации.
  6. Адекватность. Соответствие информации действительности.
  7. Актуальность. Информация может иметь значение лишь в определенный момент времени.
  8. Объективность. Чем меньше зависит содержание информации от того, кто ее получил и обработал, тем она более объективна.
  9. и др.

Особенностью свойств социальной информации является их временный характер и зависимость от конкретного человека. Так одна и та же информация для кого-то может быть понятной, а для кого-то - нет. Сегодня актуальной, а завтра – нет.

Информационные процессы

В мире существуют информационные потоки. Информация передается от одного объекта другому, при этом может видоизменяться.

Наука информатика в основном рассматривает информационные процессы так или иначе связанные с человеком. Люди получают информацию, обрабатывают ее, хранят и передают, а также используют в своей деятельности.

Получение, передача и хранение информации происходит с помощью сообщений на том или ином языке (не обязательно естественном). Обработка информации может приводить к появлению новой информации, или ее изменению.

Получение информации человеком осуществляет с помощью органов чувств и/или с использованием технических средств (например, телескопа). Можно сказать, что человечество занимается отражением окружающего мира в понятной для него форме. Человек может передавать информацию другим людям с помощью технических средств, с их же помощью он ее может и хранить. Использование техники для хранения и передачи информации требует ее преобразования в другую форму, т.к. техника не понимает слов и информацию приходится специфически кодировать. При представлении информации человеку она декодируется в приемлемую для него форму.

Следует обратить внимание на то, что получить новую информацию можно из старой путем ее обработки, обобщения и др. операций, характерных для сознания (творчество, изобретения, выводы, вычисления и т.п.).

Информация в живой природе и технике

Раздел: 
Информатика как наука

Живые организмы способны передавать через поколения информацию о своем строении и жизненных функциях. Механизм передачи и сохранения такой информации кроется в генах. Гены представляют собой участки молекул ДНК. В свою очередь ДНК образуют хромосомы. ДНК в клетках способна удваиваться путем матричного синтеза. Поэтому ДНК является основой сохранения информации в ряду поколений. Кроме того в клетках на ДНК синтезируется РНК. РНК обеспечивает синтез белка. От белкового состава зависит строение и функции организма. Таким образом, опосредовано ДНК является основой для реализации информации.

Иногда в генах происходят мутации, т. е. гены изменяются. Кроме того, изменения в дочерних организмах могут происходить за счет новых комбинаций родительских генов. Отсюда следует, что ДНК является основой для изменения информации.

Итак, в живой природе информация способна к сохранению, реализации и изменению. Однако эта информация имеет ограниченную природу. Она содержит только сведения о строении и функциях организма и направлена на его выживание.

Память животного (особенно человека) также хранит, реализует и изменяет информацию. Однако между памятью и ДНК имеются существенные различия. Память не передается по наследству, она хранит иные сведения, имеет иной механизм хранения, реализации и изменения информации.

Память формируют нервные клетки - нейроны. Точнее контакты между ними - синапсы. Через синапсы проходят импульсы, имеющие биоэлектрическую природу. Количество нейронов в мозге человека огромно, еще больше синапсов. Таким образом образуется нейронная сеть.

Различают кратковременную (оперативную) и долговременную память. Благодаря кратковременной памяти человек быстро механически запоминает текущую обстановку, но также быстро забывает текущие факты, когда в них уже нет необходимости. В долговременную память откладываются различные образы, понятия, факты. Благодаря долговременной памяти человек может распознавать образы (узнавать людей, предметы и т. д.), находить правильные решения, предполагать и делать выводы.

Человеческая память хранит данные об окружающем мире, жизненном опыте, научные знания и многое другое. Благодаря памяти человек является разумным существом, наблюдателем во Вселенной, обладает активностью на основе осознанного выбора, способен к творчеству.

Восприятие информации живыми организмами осуществляется с помощью органов чувств. А реализация информации осуществляется с помощью рефлексов или осознанного действия.

У компьютера также есть память. Также есть оперативная и постоянная память. Однако в отличие от животных принцип работы компьютерной памяти иной. Это связано с другим способом реализации памяти. Компьютерная память реализована на микросхемах, хранится в двоичных кодах.

Операции в памяти компьютера происходят с намного большей скоростью, чем в нервной ткани. Однако это последовательные операции. В то время как в мозге одновременно происходит множество процессов. Благодаря этому человек способен распознавать образы, хранить в памяти обобщенные представления о предметах.

Компьютер осуществляет операции с данными в соответствие с программой. При этом одну программу можно заменить на другую.

Разработки в области искусственного интеллекта в основном изучают проблему распознавания образов, самообучения и самоорганизации. Именно этим в отличии от вычислительных машин обладает человек.

Форма существования информации в памяти ЭВМ

Чтобы с информацией можно было работать, обрабатывать и преобразовывать, необходимо ее представить в виде какой-либо структуры. Достаточно часто информацию представляют в виде одномерной последовательности символов. Под многомерным представлением информации понимают расположение ее элементов на двумерной плоскости или в трехмерном пространстве в виде рисунков, схем, объемных макетов. При этом появляется множество характеристик информации (цвет, размер, положение, состав, структура).

Создание того или иного представления информации называется ее кодированием. Кодирование можно представить как перевод информации из ее естественной формы существования в форму удобную для хранения, передачи и обработки. Возврат информации в исходную форму называется декодированием.

Обычно при кодировании информации:

Однако все эти преимущества относительны и часто являются взаимоисключающими. Например, уменьшение избыточности может снижать надежность.

Поскольку в настоящее время для работы с информацией используются компьютеры, то естественно, что теория информации очень тесно связана с информатикой.

В ЭВМ для хранения информации существуют различные запоминающие устройства. Информация хранится в форме двоичного цифрового кода. Это связано с тем, что технически реализовать такую память проще. Электронные элементы, из которых состоит память, могут находиться только в одном из двух устойчивых состояний. Эти состояния сравнивают с 0 и 1.

Понятно, что в одном элементе памяти можно хранить минимальное количество информации. Это минимальное количество информации называют битом. Слово "бит" является сокращением от двух английских слов: BInary (двойной) + digiT (цифра) = BIT.

Последовательное объединение битов формирует более крупную единицу информации – ячейку. Ячейка, состоящая из восьми битов, называется байтом.

Аппаратная часть компьютеров оперирует машинными словами, которые представляют собой определенное количество последовательных бит, воспринимаемых как единое целое. Длина машинного слова зависит от конкретного ЭВМ.

Устройство памяти компьютера накладывает ограничение, как на ее емкость, так и на точность представления числовой информации (т.к. очевидно, что физически компьютерная память состоит из ограниченного количества бит).

Количество информации в компьютерной технике

Теория информации – это один из разделов математики. Поэтому одной из проблем связанных с информацией является измерение ее количества. Однако, само понятие информации можно определить по-разному. Следовательно, можно и по-разному измерить ее количество. Для определения количества информации наиболее распространены формулы Хартли и Шеннона.

В мире компьютеров количество информации определяется с помощью битов, байтов, килобайтов, мегабайтов, гигабайтов и т.д.

Бит – это наименьшая единица измерения информации в компьютерной технике. Можно сказать, это ячейка, которая может находиться в двух состояниях: либо 0, либо 1.

В одном бите можно зафиксировать лишь два состояния.
В двух битах уже четыре состояния.
В трех – 8.
В четырех битах – 16.

Количество информации в 1, 2 и 3 битах

Легко заметить, что количество состояний (N) системы определяется формулой N = 2a, где a – это количество бит. Так 28 = 256. Т.е используя 8 бит, мы можем зафиксировать 256 различных состояний (таблица состояний по понятным причинам не приводится).

В компьютерной технике 8 бит называются байтом. Почему именно восемь бит в байте? Ну, отчасти из-за того, что 256 состояний достаточно, чтобы закодировать алфавит того или иного языка мира. Т.е. на каждую букву отводится 1 байт, который может быть в соответствующем букве состоянии.

1 килобайт = 1024 байта (или 210),1 мегабайт = 1024 килобайта и т.д.

Изображения, использованные в статье

Содержание информационных технологий

Когда не было информационных технологий, информация перерабатывалась немашинными способами. С появлением компьютеров появились информационные системы, реализующие специальные технологии сбора, переработки, передачи и применения информации.

Понятие технологии включает комплекс научных и инженерных знаний, воплощенных в приемах труда, наборах материальных, технических, энергетических, трудовых факторов производства, способов их соединения для создания продукта или услуги. В таком понимании термин «технология» с компьютеризацией и машинизацией всех сфер.

Информационные технологии содержат:

Информационные технологии решения большого числа разных задач включают процедуры, которые могут быть сгруппированы по функционально-временным стадиям:

Как правило, информация подвергается всем процедурам преобразования, но в ряде случаев некоторые процедуры могут отсутствовать. Последовательность выполнения процедур также бывает различной, а некоторые из них могут повторяться.

Процедура сбора и регистрации информации осуществляется по-разному на различных объектах. Сначала информацию собирают, затем ее фиксируют.

Запись в первичные документы в основном осуществляется вручную, поэтому процедура сбора и регистрации остается пока наиболее трудоемкой. В условиях автоматизации управления особое внимание придается использованию технических средств сбора и регистрации информации, ее накопления и передачи по каналам связи в ЭВМ с целью формирования первичного документа.

Передача информации может осуществляться дистанционно посредством каналов связи, что сокращает время передачи данных. Для дистанционной передачи информации по каналам связи необходимы специальные технические средства. Некоторые технические средства сбора и регистрации автоматически собирают информацию с датчиков, установленных на рабочих местах, и передают ее в ЭВМ.

Машинное кодирование информации – это процедура представления информации на машинных носителях в кодах, принятых в ЭВМ. В процессе записи информации на носители возникает наибольшее количество ошибок, что объясняется трудоемкостью данной операции.

Обработка информации на компьютере производится, как правило, централизовано.

При обработке информации на ЭВМ выполняются арифметические и логические операции. Арифметические операции обработки данных в ЭВМ включают все виды математических действий, обусловленных программой. Логические операции обеспечивают соответствующее упорядочение данных в массивах (первичных, промежуточных, постоянных, переменных), подлежащих дальнейшей арифметической обработке. Значительное место в логических операциях занимают различные виды сортировки: упорядочение, распределение, подбор, выборка, объединение.

Хранение и накопление информации вызвано необходимостью ее многократного использования и комплектации первичных данных до их обработки. Хранение осуществляется на машинных носителях в виде информационных массивов.

Поиск данных – это выборка нужных данных из хранимой информации, включая поиск информации, подлежащей корректировке или замене.

Печать сводок может сопровождаться процедурой тиражирования.

Принятие решения, как правило, осуществляется специалистом без применения технических средств, но на основе тщательного анализа информации, полученной с помощью компьютера. Процедура принятия решения осложняется тем, что специалисту приходится искать из множества допустимых решений наиболее приемлемое, сводящее к минимуму потери ресурсов (временных, трудовых, материальных и т.д.). Благодаря применению ЭВМ повышается степень аналитичности обрабатываемых сведений, а также обеспечивается постепенный переход к автоматизации выработки оптимальных решений в процессе диалога пользователя с вычислительной системой. Математическая теория принятия решений строится на основе теории игр исследования операций.

Методы воспроизведения и обработки информации

Естественные методы. Методы, основанные на органах чувств. Логическое мышление. Воображение, сравнение, сопоставление, анализ, прогнозирование и т.п.

Аппаратные методы. Аппаратные методы – это всегда устройства (приборы). Магнитофоны, телефоны, микроскопы, видеомагнитофоны и т.д. С точки зрения информатики эти устройства выполняют общую функцию – преобразуют данные из формы, недоступной для естественных методов человека, в форму, доступную для них. Не всегда одни устройства могут обрабатывать данные созданные другими приборами. В таких случаях применяют специальные устройства преобразования данных, и говорят не о преобразовании формы данных, а о преобразовании их формата (модемы, бытовые видеокамеры).

Программные методы. Широкое внедрение средств вычислительной техники позволяет автоматизировать обработку самых разных видов данных с помощью компьютера. Компьютер – это прибор особого типа, в котором одновременно сочетаются аппаратные и программные методы обработки и представления информации. Эти методы составляют предметную область информатики.

Если предположить, что информация – это динамический объект, не существующий в природе сам по себе, а образующийся в ходе взаимодействия данных и методов, и существующий столько, сколько длится это взаимодействие, а все остальное время пребывающий в виде данных, то можно дать такое определение:

Информация - это продукт взаимодействия данных и методов, рассмотренный в контексте этого взаимодействия.

Контекстным (адекватным) считается тот метод, который является общепринятым для работы с данными определенного типа. Этот метод должен быть известен как создателю данных, так и потребителю информации.
Для графических данных (иллюстраций) контекстным является метод наблюдения, основанный на зрении. В этом случае имеется в виду визуальная или графическая информация. Для текстовых данных подразумевается контекстный метод чтения, основанный на зрении, знании азбуки и языка. В этом случае говорят о текстовой информации.

Для данных, представленных в виде радиоволн, контекстными являются аппаратные методы преобразования данных и потребления информации с помощью радиоприемника или телевизора. Поэтому часто используются понятия телевизионная информация, информационная программа, информационный выпуск и т.п.

Для данных, хранящихся в компьютере, передающихся по сетям, контекстными являются аппаратные и программные методы вычислительной техники. Их еще называют средствами информационных технологий, которые входят в предметную область информатики. В этом случае используется понятие компьютерной информации.

Измерение количества информации. Формула Хартли

Допустим, нам требуется что-либо найти или определить в той или иной системе. Есть такой способ поиска как «деление пополам». Например, кто-то загадывает число от 1 до 100, а другой должен отгадать его, получая лишь ответы «да» или «нет». Задается вопрос: число меньше? Ответ и «да» и «нет» сократит область поиска вдвое. Далее по той же схеме диапазон снова делится пополам. В конечном итоге, загаданное число будет найдено.

Посчитаем сколько вопросов надо задать, чтобы найти задуманное число. Допустим загаданное число 27. Начали:

  1. Больше 50? Нет
  2. Больше 25? Да
  3. Больше 38? Нет
  4. Меньше 32? Да
  5. Меньше 29? Да
  6. Больше 27? Нет
  7. Это число 26? Нет

Ура! если число не 26 и не больше 27, то это явно 27.
Чтобы угадать методом «деления пополам» число от 1 до 100 нам потребовалось 7 вопросов.

Кто-то может задаться вопросом: а почему именно так надо задавать вопросы? Ведь, например, можно просто спрашивать: это число 1? Это число 2? И т.д. Но тогда вам потребуется намного больше вопросов (возможность того, что вы телепат, и угадаете с первого раза не рассматривается). «Деление пополам» самый короткий рациональный способ найти число.
Объем информации заложенный в ответ «да» или «нет» равен одному биту. Действительно, ведь бит может быть в состоянии 1 или 0. Итак, для угадывания числа от 1 до 100 нам потребовалось семь бит (семь ответов «да» - «нет»).

N = 2k

Такой формулой можно представить, сколько вопросов (бит информации) потребуется, чтобы определить одно из возможных значений. N – это количество значений, а k – количество бит. Например, в нашем примере 100 меньше чем 27, однако больше, чем 26. Да, нам могло потребоваться и всего 6 вопросов, если бы загаданное число было бы 28.

Формула Хартли: k = log2N. Количество информации (k), необходимой для определения конкретного элемента, есть логарифм по основанию 2 общего количества элементов (N).

Количество информации. Формула Шеннона

Формула Хартли определяет количество необходимой информации для выявления определенного элемента множества при условии, что все элементы равновероятны. Однако может быть так, что какие-то элементы более вероятны (чаще встречаются), а какие-то меньше. Например, в русском языке буква «а» употребляется чаще, чем буква «ю».

В случае, когда вероятность элементов не одинакова, для определения количества информации, достаточной для выявления элемента, используют формулу Шеннона. Ее можно получить из формулы Хартли.

k = logN (формула Хартли)
1/N – вероятность каждого исхода, если все они равновероятны.
-1/N * log1/N – вклад в k (общую неопределенность, количество информации) одного исхода.

При неравновероятных исходах пусть вклад каждого обозначается буквой P с индексным номером: 1, 2, 3, 4 …. N.

Получаем формулу:

k = -P1logP1 – P2logP2 – P3logP3 – … – PNlogPN

Чем больше k, тем больше информации содержится в системе. Максимальное значение k имеет лишь тогда, когда все исходы равновероятны.