Алфавитный и содержательный подходы к измерению информации


Измерение информации. Алфавитный подход При алфавитном подходе для определения количества информации имеет значение лишь размер (объем) хранимого и передаваемого кода.2i=NI – ДЛИНА двоичного кода (информационный вес символа)N - количество символов в алфавите (мощность алфавита) {5C22544A-7EE6-4342-B048-85BDC9FD1C3A}i=2:00011011i=3:000001010011100101110111 В двоичном коде каждая двоичная цифра несет одну единицу информации, которая называется 1 бит. Бит является основной единицей информации. Информационный объем текста складывается из информационных весов всех составляющих текст символов. I=K*i (битов)i – информационный вес символаK – количество символов в текстеИнформационный объем текста {5C22544A-7EE6-4342-B048-85BDC9FD1C3A}i123456789102i2481632641282565121024 1байт=8 бит1 Кб=210 байтов=1024 байта1 Мб=220 байтов1 Гб=230 байтов1 Тб=240 байтов Измерение информации. Содержательный подход Сообщение, информирующее об исходе какого-то события, снимает неопределённость знания человека об этом событии.Информацию, которую получает человек, можно считать мерой уменьшения неопределенности наших знанийСущность содержательного подхода:знаниеЗнаниеНезнание Ситуация 1. В ваш класс назначен новый учитель информатики; на вопрос «Это мужчина или женщина?» вам ответили: «Мужчина».Ситуация 2. На чемпионате страны по футболу играли команды «Динамо» и «Зенит». Из спортивных новостей вы узнали, что победил «Зенит».Ситуация 3. На выборах мэра города было представлено 4 кандидата. После голосования вы узнали, что избран Н. Н. Никитин. Клод Элвуд Шеннон(1916-2001) – основатель теории информацииИнформация – это снятая неопределенность знания человека об исходе какого-то события Сообщение, уменьшающее неопределенность знания об исходе некоторого события в два раза, несет 1 бит информации. Количество информации i, содержащееся в сообщении об одном из N равновероятных исходов некоторого события, определяется из решения показательного уравнения: 2i = N«Главная формула» информатики i=log2NI – количество информации, содержащееся в сообщении об одном из N равновероятных исходов события.Формула Хартли