Введем обозначение I для количества информации и для объема данных.

Синтаксическая мера оперирует обезличенной информацией, не выражающей смыслового отношения к объекту (данными).

Объем данных Vд в сообщении измеряют количеством разрядов. Один разряд в каждой системе счисления имеет различный вес и обозначает соответствующую единицу измерения данных (бит в двоичной, байт в восьмеричной, дит в десятичной), например, сообщение в 2-й с.с. в виде кода 10111011 (восемь разрядов) имеет объем в 8 бит. На данном уровне количество информации рассматривают в соответствии с неопределенностью состояния системы (энтропией). Это связано с неосведомленностью получателя о состоянии системы. Сведения потребителя о системе обозначим за a. Мера неосведомленности о системе является функцией H(a), что является мерой неопределенности состояния системы. При получении сообщения b, получатель приобрел дополнительную информацию Ib(a), что уменьшило его неосведомленность и тем самым, снизило неопределенность состояния системы до Hb(a). В итоге количество информации можно определить по формуле: Ib(a) = H(a) - Hb(a).

Количество информации измеряют как изменение неопределенности состояния системы. Если неопределенность Hb(a) станет нулевой, то первоначальное знание о системе станет полным, т. е. энтропия системы H(a) рассматривается как мера недостающей информации. По формуле Шеннона, энтропия системы, имеющей N возможных состояний, равна:

Pi - вероятность нахождения системы в i-м состоянии. В случае, когда все состояния системы равновероятны, т. е. вероятности равны:

энтропия определяется соотношением:

Информацию кодируют числовыми кодами в определенной системе счисления, причем в разных системах счисления, одно количество разрядов передает разное количество состояний:

Где N - количество состояний (количество возможных кодовых комбинаций); m - основание системы счисления; n - количество разрядов в сообщении.

Количество приобретенной получателем сообщения информации для равновероятностных систем (система может с равной вероятностью находится в любом из возможных состояний) определяется формулой Хартли:

Если в основании логарифма m, то I = n, что означает равенство количества полученной информации объему данных (при условии полного априорного незнания получателем содержания сообщения), полученных по каналу связи (I=Vд). Для неравновероятных состояний системы I<Vд = n. Коэффициент информативности сообщения определяют как отношения количества информации к объему данных:

С увеличением коэффициента информативности снижается объем работы по преобразованию информации (данных) в системе.

Семантическая мера (смысл) количества информации наиболее часто используемая - это тезаурусная мера, связывающая семантические свойства информации со способностью пользователя принимать поступившее сообщение.

Тезаурус (Sp) - совокупность сведений, которыми располагает пользователь или система.

Измеряют количество семантической информации Ip, воспринимаемой пользователем и включаемой им в свой тезаурус в зависимости от соотношения между смысловым содержанием S и тезаурусом пользователя Sp. Характер зависимости имеет вид нормального распределения:

Sp -> 0 пользователь не поспринимает и не понимает информацию;

Sp -> Inf пользователь все знает и поступающая информация не нужна.

Зависимость количества информации, воспринимаемой пользователем, от его тезауруса:

При согласовании смыслового содержания S со своим тезаурусом Sp (Sp=Sopt) пользователь получает максимальное количество семантической информации Ic, т.е. поступающая информация не известна пользователю и предельно понятна ему. Количество семантической информации является величиной знаний и относительно.

Семантический шум - бессмысленное сообщение по своему смысловому содержанию для пользователя в виду различных причин (уровня компетенции и т.п.). Количество семантической информации относительно и зависит от пользователя. Следует стремится к согласованию S и Sp. Относительно мерой количества семантической информации может служить коэффициент содержательности С:

Прагматическая мера определяет ценность информации для достижения поставленной пользователем цели. Величина относительна, и обусловлена особенностями применения информации. Ценность информации целесообразно измерять в единицах целевой функции (зависит от системы применения). В экономической системе прагматические свойства информации (ценность) определяют приростом экономического эффекта функционирования, достигнутым благодаря использованию информации для управления системой.

Иногда выделяют структурный класс информационных мер:

  • адаптивная мера (мера Хартли);
  • геометрическая мера - измерение параметра геометрической модели информационного сообщения (длины, площади, объема) в дискретных единицах. Максимально возможное количество информации в заданных структурах определяет информационную емкость модели (систему), которую описывают как сумму дискретных значений по всем измерениям.
  • комбинаторная мера - количество информации определяется как число комбинаций элементов (символов). Возможное количество информации совпадает с числом возможных сочетаний, перестановок или размещений элементов.
Сводная таблица
Мера информации Единицы измерения Пример
Синтаксическая Степень уменьшения неопределенности (Шеннон) Вероятность события
Единицы представления инфомрации (ЭВМ) Бит, байт ...
Семантическая Тезаурус Программное обеспечение, ЭВМ и т.д.
Экономические показатели Рентабельность, производительность, коэффициент амортизации и т.д.
Прагматическая Ценность использования Емкость памяти, производительность компьютера, скорость передачи данных, время обработки информации и принятия решения

results matching ""

    No results matching ""