Энтропия случайного источника — различия между версиями
| Строка 1: | Строка 1: | ||
| − | |||
== Определение == | == Определение == | ||
| Строка 7: | Строка 6: | ||
Энтропия — это количество информации, приходящейся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения. | Энтропия — это количество информации, приходящейся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения. | ||
| − | |||
}} | }} | ||
Пусть задан случайный источник. | Пусть задан случайный источник. | ||
| Строка 17: | Строка 15: | ||
: <tex>H: \bigcup\limits_{i=1}^{\infty} \mathbb{R}^i \rightarrow \mathbb{R} </tex> | : <tex>H: \bigcup\limits_{i=1}^{\infty} \mathbb{R}^i \rightarrow \mathbb{R} </tex> | ||
: <tex>H(p_1, p_2, ..., p_n)</tex> | : <tex>H(p_1, p_2, ..., p_n)</tex> | ||
| + | |||
| + | == Свойства == | ||
| + | |||
| + | # Функция <tex>H(p_1, p_2, ..., p_n)</tex> непрерывна. | ||
| + | # <tex>H(\underbrace{\frac{1}{n}, \frac{1}{n}, ..., \frac{1}{n}}_\text{n}) < H(\underbrace{\frac{1}{n+1}, \frac{1}{n+1}, ..., \frac{1}{n+1}}_\text{n+1})</tex> | ||
| + | # <tex>H(p_{1}q_{11}, p_{1}q_{12}, ..., p_{n}q_{nk_n}) = H(p_1, p_2, ..., p_n) + \sum\limits_{i=1}^{n} p_iH(p_i, ..., p_{ik_i})</tex> | ||
| + | # <tex>H(\{\frac{1}{2}, \frac{1}{2}\}) = 1 </tex> | ||
| + | |||
| + | ==Вычисление энтропии== | ||
| + | |||
| + | {{Теорема | ||
| + | |statement= <tex>H(p_1, p_2, ..., p_n) = -k \sum\limits_{i=1}^{n} p_i\log_2p_i </tex> | ||
| + | |proof = | ||
| + | Для доказательства теоремы сначала докажем лемму. | ||
| + | {{Лемма | ||
| + | |statement = <tex>g(n) = H(\frac{1}{n}, \frac{1}{n}, ..., \frac{1}{n}) = -k \log_2 \frac{1}{n}</tex> | ||
| + | |proof = | ||
| + | Будем рассматривать для <tex>k=1</tex> (1 бит). | ||
| + | |||
| + | Рассмотрим функцию <tex>g(mn)</tex>: | ||
| + | : <tex>g(mn)=g(m)+ \sum\limits_{i=1}^{m} \frac{1}{m} g(n) = g(m)+g(n)</tex> | ||
| + | |||
| + | |||
| + | : <tex>g(2)=1 \quad g(2^k)=k</tex> | ||
| + | |||
| + | |||
| + | : <tex>g(n) = \log_2(n) \quad \quad g(n^k)=k \cdot g(n)</tex> | ||
| + | |||
| + | |||
| + | : <tex>2^i \leq n^k < 2^i+1 \quad \quad g(2^i) \leq g(n^k) < g(2^{i+1})</tex> | ||
| + | |||
| + | |||
| + | : <tex>i=\lfloor \log_2 n^k\rfloor \quad \quad i \leq k \cdot g(n) <i+1</tex> | ||
| + | |||
| + | |||
| + | : <tex>\frac{i}{k} \leq g(n) < \frac{i+1}{k}</tex> | ||
| + | |||
| + | |||
| + | : <tex> k\rightarrow \infty \quad \quad g(n) = \log_2n = -k \log_2 \frac{1}{n}</tex> | ||
| + | }} | ||
| + | |||
| + | Теперь рассмотрим функцию <tex>H(\frac{a_1}{b_1}, \frac{a_2}{b_2}, ..., \frac{a_n}{b_n})</tex> | ||
| + | |||
| + | }} | ||
Версия 00:44, 24 декабря 2010
Определение
| Определение: |
| Энтропией случайной схемы называется мера содержащейся в этой схеме неопределенности. Энтропия — это количество информации, приходящейся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения. |
Пусть задан случайный источник.
Пусть мы имеем вероятностную схему от этого источника с исходами, и вероятности этих исходов равны .
Тогда энтропия задается как вполне конкретная функция от вероятностей исходов.
Свойства
- Функция непрерывна.
Вычисление энтропии
| Теорема: | ||||||
| Доказательство: | ||||||
|
Для доказательства теоремы сначала докажем лемму.
| ||||||