Карта сайта Обратная связь
ИТ-консалтинг Имитационное моделирование Компьютерные технологии Програмное обеспечение Антивирусные программы Защита информации История развития Internet
 
 



Измерение с ообщ ений и информации

29-10-2017

Пример. Время t реакции испытуемого на выбор предмета из имеющихся N предметов линейно зависит от log2N: t=200+180log2N (мс). По аналогичному закону изменяется и время передачи информации в живом организме. В частности, один из опытов по определению психофизиологических реакций человека состоял в том, что перед испытуемым большое количество раз зажигалась одна из n лампочек, которую он должен указать. Оказалось, что среднее время, необходимое для правильного ответа испытуемого, пропорционально не числу n лампочек, а именно величине I определяемой по формуле Шеннона, где pi - вероятность зажечь лампочку номер i. .

Легко видеть, что в общем случае:

n I = — å pi log2 pi £ log2n. i=1Если выбор i - го варианта предопределен заранее (выбора, собственно говоря, нет, pi=1), то I=0.

Сообщение о наступлении события с меньшей вероятностью несёт в себе больше информации, чем сообщение о наступлении события с большей вероятностью. Сообщение о наступлении достоверно наступающего события несёт в себе нулевую информацию (и это вполне ясно, - событие всё равно произойдёт когда-либо).

Пример. Если положение точки в системе известно, в частности, она - в k-ой клетке, т.е. âñå рi= 0, кроме рk=1, то тогда I=log21= 0 и мы здесь новой информации не получаем.

Пример. Выясним, сколько бит информации несет каждое двузначное число со всеми значащими цифрами (отвлекаясь при этом от его конкретного числового значения). Так как таких чисел может быть всего 90 (10 - 99), то информации будет количество I=log290 или приблизительно I= 6.5. Так как в таких числах значащая первая цифра имеет 9 значений (1- 9), а вторая - 10 значений (0-9), то I=log290= log29+log210. Приблизительное значение log210 равно 3.32. Итак, сообщение в одну десятичную единицу нес ет в себе в 3.32 больше информации, чем в одну двоичную единицу (чем log22=1), а вторая цифра в, например, числе аа несёт в себе больше информации, чем первая (если цифры разряда а неизвестны; если же эти цифры а известны, то выбора нет - информация равна нулю).

Если в формуле Шеннона обозначить fi = —n log2 pi , то получим, что I можно понимать как среднеарифметическое величин fi .

Отсюда, fi можно интерпретировать как информационное содержание символа алфавита с индексом i и величиной pi вероятности появления этого символа в сообщении, передающем информацию.

Пусть сообщение состоит из n различных символов, mi - количество символов номер i=1, 2, .... n в этом сообщении, а N - длина сообщения в символах. Тогда вероятность появления i-го символа в сообщении равна pi=mi/N. Число всех различных сообщений длины n будет равно


Интересно:
 Защита от несанкционированного доступа
 Понятие о файле
 Работа кабельной системы
 Информация и её свойства
 Понятие о кодировании информации

Добавить комментарий:

Введите ваше имя:

Комментарий:


Новости:•  Французы соединили мультиконтактный дисплей с 3D
Экран-стол, который демонстрирует трехмерное изображение объектов и позволяет взаимодействовать с ними, создали Жан-Баптист де ла Ривьер (Jean-Baptiste de la Rivière) и его коллеги из компании Immersion.

•  O чем опасно писать в Интернете
Скандал с блогером Олегом Шинкаренко, с которым СБУ провела воспитательную беседу, заставил задуматься — что можно писать в блоге.

•  В России решат судьбу связи 4G
Российская Государственная комиссия по радиочастотам (ГКРЧ) предложила выделить под сети четвертого поколения стандарта LTE частоты от 2,5 до 2,7 гигагерца. Указанный диапазон частот в настоящее время предоставлен под размещение сервисов цифрового телевидения формата MMDS. Частотный ресурс был выделен несколько лет назад региональным компаниям для запуска вещания, однако сейчас практически не используется ими.


Rambler's Top100