Информационная энтропия — мера неопределённости или непредсказуемости информации, неопределённость появления какого-либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения.
Количество информации – в теории информации это количество информации в одном случайном объекте относительно другого. Пусть и
– случайные величины, заданные на соответствующих множествах
и
. Тогда количество информации
относительно
есть:
где
, — условная энтропия, в теории передачи информации она характеризует шум в канале.