243.06K
Categories: mathematicsmathematics physicsphysics

Кодирование сообщений в отсутствии шума

1.

Кодирование
сообщений в
отсутствие шума

2.

Средняя длина кодового слова
n
L i P ( xi )
i 1
i
длина кодового слова

3.

log P( xi ) i log m,
log P( xi )
i
log m
n
n
P( xi )log P( xi )
i 1
log m
i P( xi )
i 1

4.

Lmin
H(X )
.
log m
log P( xi )
i
1
log m
Lmin
H (X )
1.
log m

5.

H(X )
H(X )
Lmin
1.
log m
log m
Теорема Крафта. Если 1, 2 , , n
– длины кодовых слов, соответствующих
сообщениям х1, х2 , , хn , то необходимым и
достаточным
условием
существования
неперекрываемых кодовых слов с заданными
длинами является выполнение неравенства
n
m
k
1
k 1
m - число различных символов в кодовом алфавите

6.

Теорема Шеннона.
При кодировании сообщений х1, х2 ,
, хn
в алфавите насчитывающем m символов,
при условии отсутствия шумов,
средняя длина кодового слова не может
H(X )
быть меньше, чем log m
энтропия сообщений
, где H ( X ) -

7.

ДИСКРЕТНЫЕ КАНАЛЫ С ШУМАМИ
Модель канала связи при наличии шумов

8.

k
k
N m N0 m
N0 N
N0 N
k
N ( N0 N )
N
N0

9.

Пропускная способность
дискретного канала связи с
шумами

10.

I (WT , X T )
I (W , X ) lim
(бит/ с)
T
T
С max I (W , X ) (бит/ с)
Сс max I (Z ,Y ) (бит/ с),
I ( ZT , YT )
{Z} {Y}

11.

I ( ZT , YT ) H ( ZT ) H ( ZT / YT )
H (YT ) H (YT / ZT )
H(Z) – априорная (безусловная)
энтропия ансамбля {Z}
энтропия ансамбля {Z},
H ( ZT / YT ) оставшаяся после
получения сообщения об
ансамбле {Y}

12.

H ( ZT ) МH ( Z ),
H ( ZT / YT ) МH ( Z / Y )
I ( ZT , YT ) МH ( Z ) МH ( Z / Y )
МH (Y ) МH (Y / Z )

13.

Теоремы о
кодировании в
присутствие шумов

14.

Теорема 1 (К. Шеннон). Если поток
информации H ( X ) создаваемый
источником
H ( X ) Сс
где может быть сколь угодно малым
положительным числом, то существует
такой код, при котором вероятность
ошибок на приемном конце сколь
угодно мала; Сс – пропускная
способность линии связи.

15.

Теорема 2 (К. Шеннон). Если поток
информации создаваемый источником
H ( X ) Сс ,
где 0 , то среди кодов,
обеспечивающих
сколь угодно малую вероятность ошибки,
существует код, при котором скорость
передачи информации I Сс

16.

Теорема 3 (К. Шеннон). Если поток
информации создаваемый источником
H ( X ) Сс
где
0
то никакой код не может сделать
вероятность ошибки сколь угодно малой
Минимальные потери информации в
единицу времени [ H ( X / Y )] равны

17.

Фундаментальное
свойство энтропии
дискретных
эргодических
источников

18.

Теорема 1. Для любых ε>0 и δ>0 можно
найти такое М0, при котором эргодические
последовательности С длиной М M 0
распадаются на два класса: 1) нетипичные,
сумма вероятностей которых меньше ε;
2)
типичные,
вероятности
которых
удовлетворяют следующему неравенству:
1
log
P (С )
H (X )
,
M

19.

Следствие 1. Типичные
последовательности приблизительно
равновероятны и число их равно
NТ 2
M Н (Х)
Следствие 2. При больших М множество
типичных последовательностей
охватывает малую долю всех возможных
последовательностей, вырабатываемых
эргодическим источником.

20.

N n
M
2
log n М
2
M log n
Следствие 3. Чтобы экспериментально
определить энтропию эргодического
источника, у которого вероятностные связи
распространяются на очень большое число
символов, нам необходимо располагать
последовательностью еще большей длины М
при этом вычисленная энтропия будет
близка к своему пределу
1
log
Н(Х )
P(С )

21.

Пример 1. Эргодический источник с
энтропией Н ( Х ) 1,9 (бит) вырабатывает
четыре различных символа. Найти
отношение числа типичных к общему числу
всевозможных последовательностей длиной
М 100 (символов).
Решение. Число типичных
последовательностей
NТ 2
M Н (Х)
100 1,9
190
2
2
M
100
200
а всех возможных N n 4
2

22.

190
NТ 2
1
1
200 10
0,001
N 2
1024
2
Таким образом, типичные составляют
одну
тысячную
всех
возможных
последовательностей.

23.

Пример 2. Источник вырабатывает с одинаковой
вероятностью два символа А и В. Определить
количество возможных последовательностей,
содержащих n A символов А, причем n A nB M
Определить вероятность события, что в
выработанной источником последовательности
длиной М содержится n A символов А.
M
N 2
nA
СM
M!
.
nA !( M n A )!

24.

nA
PМ (n A ) CM
p
nA
q
M nA
nA
CM
P( B) q 1/ 2
P( А) p 1/ 2
I случай. Пусть M 4
N 2
1
2
М
2 16
4
M

25.

26.

II случай. Пусть M 20
N 2
М
2
20
1048476
English     Русский Rules