Информационная энтропия — мера неопределённости или непредсказуемости информации, неопределённость появления какого-либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения.
Количество информации – в теории информации это количество информации в одном случайном объекте относительно другого. Пусть
и
– случайные величины, заданные на соответствующих множествах
и
. Тогда количество информации
относительно
есть:
,
где
, — энтропия, а
, — условная энтропия, в теории передачи информации она характеризует шум в канале.