Радиотехнические системы передачи информации
Основные концепции построения сотовых сетей
Гексагональная структура сотовой сети
Повторное использование частот (frequency reuse)
Жесткая «Handoff»-процедура
Частотное разделение пользователей
Временное разделение пользователей
Производительность частотного и временного разделения пользователей
Понятие о кодовом разделении пользователей
Понятие о пространственном разделении пользователей
4. Кодирование дискретных источников
Код Хаффмена
Код Шеннона-Фэно
Лекции 3-4. 1. Некоторые сведения из теории информации.
2. Модели каналов без памяти.
2.45M
Category: informaticsinformatics

Радиотехнические системы передачи информации

1. Радиотехнические системы передачи информации

Профессор, д.ф.-м.н. А.Г. Флаксман
Кафедра радиоэлектронных систем НГТУ
1.
2.
3.
4.
5.
Литература (основная)
Прокис Д. Цифровая связь. Пер. с англ. – М: Радио и связь, 2000. 800с.
Скляр Б. Цифровая связь. Теоретические основы и практическое применение. Пер. с англ.
М:, Вильямс, 2003. 1104 с.
Ермолаев В.Т., Маврычев Е.А., Флаксман А.Г. Современные методы обработки сигналов в
беспроводных системах связи. Учебное пособие. / Нижний Новгород: Изд-во НГТУ им.
Р.Е. Алексеева, 2011. – 140 с.
Ермолаев В.Т., Флаксман А.Г. Современные методы пространственной обработки сигналов
в радиосистемах с антенными решетками. Учебное пособие. / Нижний Новгород: Изд-во
НГТУ им. Р.Е. Алексеева, 2008. - 171 с.
В.Т. Ермолаев, А.А. Мальцев, А.Г. Флаксман, О.В. Болховская, А.В. Клюев. Мобильная
связь: вопросы теории и типовые задачи. Учебное пособие. / Нижний Новгород: Изд-во
Нижегородского госуниверситета ННГУ им. Н.И. Лобачевского, 2014. 234 с.
03.01.2018
1

2.

Лекция 1. Введение
Число пользователей мобильной связи (в млн.)
140 (1996 г.)
205 (1997 г.)
290 (1998 г.)
380 (1999 г.)
500 (2000 г.)
680 (2001 г.)
Страны с наибольшим удельным числом пользователей (на конец 20 века)
1. Финляндия. 2. Швеция.
3. Норвегия.
4. Дания
• Первый стандарт беспроводного доступа в Интернет (стандарт 802.11
Wi-Fi (Wireless Fidelity)) на передачу данных со скоростью до 2 Мбит/с
в диапазоне 2,4 ГГц ратифицирован в 1997 году
•Стандарт 802.11b на передачу данных со скоростью до 11 Мбит/с в
диапазоне 2,4 ГГц ратифицирован в 1999 году
• Стандарт 802.11а ратифицирован в 1999 году и регламентирует
скорость передачи данных до 54 Мбит/с в частотном диапазоне 5 ГГц
03.01.2018
2

3. Основные концепции построения сотовых сетей

Особенности сотовой архитектуры:
- передатчики небольшой мощности
- небольшие зоны покрытия сотами
- повторное использование частот
- дробление сот для уменьшения мощности
- управление передачей вызова (handoff)
Макросота ~ 35 км
Сота ~ 3-5 км
Микросота ~ 0.8-1 км
Пикосота ~ 0.2 км
03.01.2018
3

4. Гексагональная структура сотовой сети

Пример используемой антенны (2100 МГц)
Столбец излучателей (10 излучателей)
Поляризация – двойная, линейная с наклоном +45 и -45 град.
Высота столбца - 697 мм
Ширина столбца - 167 мм
Глубина столбца - 58 мм
Ширина луча (по уровню половинной мощности):
горизонтальная плоскость - 65 град.
Вертикальная плоскость - 13 град.
03.01.2018
4

5.

Функциональная схема цифровой системы связи
03.01.2018
5

6. Повторное использование частот (frequency reuse)

Повторное использование частот заключается в том, что в соседних сотах используются
разные полосы частот, которые повторяются через несколько сот.
Кластер (cluster) – группа сот с различным набором частот.
3-х частотный
кластер (f1, f2, f3)
7-ми частотный
кластер
( f1, f2, …, f7)
Цифра внутри соты показывает используемую частоту
Расстояние между центрами сот с одинаковыми частотами, D R 3N
R – радиус соты (радиус описанной окружности), N – число сот в кластере.
N=3, D=3R;
N=7, D=4.58R;
N=19, D=7.55R
Отношение D/R=q называется коэффициентом уменьшения соканальных помех или
коэффициентом соканального повторения.
Обратная величина C=1/N называется коэффициентом повторного использования частот
Расстояние между центрами сот с одинаковыми частотами D R 3 C
03.01.2018
6

7. Жесткая «Handoff»-процедура

Жесткий handoff - обслуживание лучшей базовой станцией (БС)
Пример двух БС (А и Б)
Жесткий handoff приводит к
кратковременной передаче
пользователя от одной БС к
другой, то есть возможны
перерывы в сеансе связи
Сигналы, принимаемые базовыми
станциями А и Б
03.01.2018
Результирующий сигнал
формируется путем коммутации и
«склеивания» сигналов от разных
базовых станций
7

8.

Мягкая «Handoff»-процедура
Мягкий handoff - обслуживание лучшей базовой станцией (БС)
Пример двух БС
Пороговое ОСШ
(выбор кандидатных
БС)
Нет Handoff
Пороговое ОСШ
(замена
обслуживающей БС)
Мягкий handoff уменьшает
число передач пользователя
от одной БС к другой, то есть
число возможных перерывах
в сеансе связи
Handoff
03.01.2018
Сигналы, принимаемые
базовыми станциями А и Б
8

9.

Основные принципы множественного
доступа (разделения) пользователей
Частотное
разделение - FDMA
(frequency division
multiple access)
03.01.2018
Временное разделение
- TDMA (time division
multiple access)
Кодовое разделение
пользователей CDMA (code division
multiple access)
9

10. Частотное разделение пользователей

Скорость передачи данных R бит/сек (один пользователь).
М – число пользователей (число отдельных полос).
Длительность импульсов увеличивается в M раз, то есть все M пользователей
одновременно передают информацию, но с уменьшенной скоростью R/M бит/сек.
1. Взаимное влияние каналов должно быть минимально возможным;
2. Время ожидания пакета для всех пользователей одинаково;
3. При замираниях в канале некоторые частотные каналы могут быть сильно ослаблены.
М – число пользователей;
b – число бит в пакете;
Т – время передачи пакета.
03.01.2018
Скорость передачи
RFD M
b
бит / сек
T
10

11. Временное разделение пользователей

время
Скорость передачи данных R бит/сек (один пользователь).
М – число пользователей (число временных интервалов).
Каждый пользователь использует всю полосу и передает
информацию со скоростью R бит/сек (длительность
импульсов не изменяется), но за время T/M.
М – число пользователей;
b – число бит в пакете;
Т – время передачи пакета.
Скорость передачи
Пакет передается
за меньшее время
RTD
b
бит / сек
T /M
Скорость передачи одинакова для
частотного и временного разделения
RFD RTD
Время ожидания пакета для всех пользователей различно
03.01.2018
11

12. Производительность частотного и временного разделения пользователей

Время задержки пакета состоит из среднего времени w ожидания
пакета и из среднего времени передачи пакета
D w
Частотное разделение - пакет передается без задержки
в течение T секунд
wFD 0; FD T
Временное разделение - пакет передается с задержкой
в течение T/M секунд.
Время задержки m-го пакета (m 1)T / M
1
wTD
Среднее время ожидания m-го пакета
M
FD T / M
DTD
T
1
1
2 M
T
M
DTD DFD
T
1
1
2 M
M
(m 1)
m 1
DTD DFD
T T
1
1
M 2 M
b
M 1
2R
Временное разделение является более производительным,
если учитывать время задержки пакета
03.01.2018
12

13. Понятие о кодовом разделении пользователей

- Разделение пользователей осуществляется за счет модуляции символов кодовыми
псевдослучайными последовательностями (КПШП).
- Каждому пользователю назначается своя КПШП.
Передаваемые импульсы
dA=1, dB=1, dC= –1, dD= 1
(простой сигнал)
03.01.2018
Модулированные импульсы
(сигнал с расширенным
спектром)
13

14. Понятие о пространственном разделении пользователей

MS 1
MS 1
MS 2
MS 2
BTS
ДОС
MS 1
MS 2
Формирование
ортогональных лучей с
помощью антенной решетки
03.01.2018
14

15.

Управление мощностью (power
control - PC) на мобильной станции
Стандарт CDMA (IS-95)
15 дБ
Без РС
с РС
- Фрейм (20 мсек) состоит из 288
символов.
- Эти символы делятся на 16 групп
PC (18 символов в группе).
- Длительность группы 1.25 мсек.
- Частота управления мощностью 800 Гц
- Шаг управления мощностью 1 дБ
- Управление мощностью основано
на оценке ОСШП для каждой группы
символов
8 дБ
Замирания сигналов в канале связи
0 дБ
-5 дБ
Мощность передатчика
03.01.2018
15

16.

Лекция 2. Преобразование аналоговой
информации в дискретную форму
1. Дискретизация аналогового сигнала
X ( ) 2 ( 0 ) - спектр сигнала x(t), где - круговая частота; (x) - дельта-функция
1
j 0t
j t
x(t )
2
(
)
e
d
e
0
2
Периодический сигнал с периодом T имеет линейчатый спектр
X ( )
2 X n ( n 0 )
n
0 2 T
1
jn 0t
j t
2
X
(
n
)
e
d
X
e
Сигнал представляется рядом Фурье x(t )
n
0
n
n 2
n
2
2 n
Докажем, что (t k t )
t
t
k
n
03.01.2018
периодическая последовательность
-импульсов имеет линейчатый
спектр в виде периодической
последовательности -компонент
16

17.

Последовательность импульсов
(t k t )
имеет период t
k
Коэффициенты ряда Фурье
Спектр
t / 2
1
2 n
1
Xn
(
t
)
exp
j
t
dt
t t / 2
t
t
2 2
2 n
X ( ) 2 X n ( n 0 ) 2 X n n
t
t
t
n
n
n
Доказали
Операция дискретизации.
s (t )
(t n t )
n
xs (t ) x(t ) s (t ) x(t )
Так как
03.01.2018
(t n t )
n
- дискретный (семплированный) сигнал
x(t ) (t t0 ) x(t0 ) (t t0 ) то xs (t )
x(n t ) (t n t )
n
17

18.

Процедура дискретизации
аналогового сигнала
1
X s ( )
2
X (v)S ( v)dv
2
2 n
X
(
v
)
v
dv
t n
t
1
2 n
X
t n
t
1
2
Спектр дискретного сигнала есть
размноженная версия спектра
исходного непрерывного сигнала
03.01.2018
18

19.

Частота Найквиста (частота дискретизации, скорость стробирования) f N = 1/ t
Спектр аналогового
сигнала
Спектр дискретного
сигнала
Передаточная функция
восстанавливающего
фильтра
Спектр
восстановленного
сигнала
f N = 2f M
f N > 2f M
f N < 2f M
Хорошее восстановление сигнала
f N 2 fM
or t
03.01.2018
1
2 fM
Плохое восстановление сигнала
Так необходимо делать на практике
19

20.

2. Теорема Котельникова
Непрерывный сигнал с ограниченной полосой [ fM fM] может быть восстановлен по
его отсчетам (выборкам), взятым через интервал времени t 1/(2fM) с помощью
интерполяционной формулы
tmax=1/(2fM) - максимальный интервал
sin[ (t n t ) t ]
между временными отсчетами сигнала,
x f (t ) x(n t )
(t n t ) t
определяемый шириной полосы
n
Доказательство. Сигнал можно восстановить в частотной
области, используя идеальный низкочастотный фильтр
X f ( ) X s ( ) H ( )
x f (t ) xs (t ) h(t x(n t ) (t n t ) h(t
n
x(n t ) ( n t )h(t )d x(n t )h(t n t )
n
Идеальная передающая функция
(см. рисунок на слайде выше)
n
t ,
H ( )
0,
Идеальная импульсная характеристика
03.01.2018
t t
t.
h(t )
sin ( t t )
( t t )
Доказали
20

21.

3. Квантование аналоговых сигналов
Равномерная импульсно-кодовая модуляция (ИКМ)
Каждый отчет квантуется в один из N=2b уровней, где b – число двоичных цифр (разрядов)
Динамический диапазон сигнала [ Emax Emax].
Размер шага квантования
q 2Emax 2b
Амплитудная характеристика
3-битового квантователя
03.01.2018
21

22.

x x e
Процесс квантования ~
p ( e) 1 q
где e – ошибка квантования, трактуемая как аддитивный шум
( 0.5q e 0.5q)
с равномерной плотностью вероятности
Мощность
ошибки квантования
0.5 q
0.5 q
1
1 2 (2 Emax ) 2
e p(e)de e de q
q
12
12(22b )
0.5 q
0.5 q
2
q
2
Мощность входного сигнала x при
равномерной плотности вероятности
на интервале от -Emax до +Emax
ОСШ
2x
2q
2 2b
2
2x
Emax
Emax
Emax
Emax
(2 Emax ) 2
1
x
dx
2 Emax
12
2
ОСШдБ 10 lg( ОСШ) 10 lg( 22b ) 20b lg( 2) 6 b
Пример: 8-разрядный (b=8) АЦП (256 уровней).
ОСШ = 48 дБ.
03.01.2018
x p( x)dx
2
ОСШ увеличивается
на 6 дБ на каждый
разряд АЦП
22

23.

При неравномерной плотности вероятности сигнала на интервале от -Emax до +Emax
ОСШдБ 6 b C (C 0)
Пример. Сигнал x занимает часть динамического диапазона квантователя и имеет
равномерную плотность вероятности на интервале Emax a Emax a (a >1)
Мощности сигнала
2x
Emax a
x p( x)dx
Emax a
ОСШ 22b a 2
2
(2 Emax ) 2
12a 2
ОСШдБ 10 lg( ОСШ) 6 b 20 lg a
Пример: a=4. Тогда C=12 дБ.
03.01.2018
23

24.

Неравномерная импульсно-кодовая модуляция
.
Устройство неравномерного
квантования
В природе более вероятны
более слабые сигналы.
Входной сигнал преобразуется
в нелинейном устройстве
(компрессор или сжиматель) и
затем квантуется с помощью
равномерной ИКМ.
При восстановлении сигнала
используется обратное
преобразование, выполняемое
с помощью экспандера
(расширителя)
Характеристика компрессора y=C(x). Размер шага квантования
Дисперсия ошибки квантования (плотность вероятности
p(x) и характеристика компрессора y=C(x) произвольные)
2
Дисперсия сигнала x
y (dC dx ) x
x
q 2
q 2 max p( x)
dx
2
12 x dC dx
max
2
x
p( x)dx
03.01.2018
24

25.

xmax
x2
ОСШ 2 2
q
q
2
x
p( x)dx
xmax
xmax
12 xmax
x>0.
ОСШ не должно зависеть от функции p(x)
p( x)
dx
(dC dx) 2
(dC dx) 2 ( K x) 2
x
dC dx K x
C ( x) ( K z )dz ln x const
Компрессор должен
быть логарифмическим
0
Граничные условия
y
ymax
x<0.
y
ymax
03.01.2018
x
C ( x)
ln
ymax
xmax
x
sgn( x),
ln
xmax
1, ( x 0)
sgn( x)
1, ( x 0)
25

26.

Плавное соединение между
логарифмической функцией
и линейным отрезком,
проходящим через начало
координат
Функции логарифмического
сжатия
03.01.2018
-закон (Северная Америка)
A-закон (Европа)
26

27.

Амплитудная характеристика -компрессора
y ymax
ln[1 ( x xmax )]
ln(1 )
sgn x
Амплитудная характеристика A-компрессора
A( x xmax )]
y
sgn x,
0 x xmax 1 A
max
1 ln( A)
y
1 A( x xmax )]
y
sgn x,
1 A x xmax 1.
max
1 ln( A)
В стандарте США и Канады при кодировании
речи =255 при 8-битовом АЦП.
A=87.56 - стандартное значение параметра A.
Амплитудная характеристика
компрессора при =1, 15 и 255
(кривые
1, 2, 3, соответственно)
03.01.2018
27

28.

Среднее ОСШ для -компрессора
( xmax )
dC
1
ymax
dx
ln(1 ) 1 ( x xmax )
dC 1 ymax
( x x max ) 1
dx x ln( )
ОСШ
x2
q 2
2
2y
12 y
2 max 3 max
q ln( )
q
2 ymax q 2b
ОСШ 22b
ОСШдБ 6 b C
=255
03.01.2018
2
1
ln( )
2
3
[ln( )]2
C 4.8 - 20 lg( ln( ))
C=10.1 дБ.
ОСШ уменьшилось на 10.1 дБ.
Однако теперь ОСШ не зависит
от плотности вероятности
входного сигнала
28

29. 4. Кодирование дискретных источников

X множество всевозможных дискретных сообщений x1, x2, …, xn передается по каналу
связи с вероятностями p(x1), p(x2), …, p(xn).
Условие непрерывной передачи: p(x1)+p(x2)+ … +p(xn)=1.
Энтропия источника (среднее количество информации
при передаче одного символа сообщения)
n
H ( X ) p ( xi ) log p ( xi )
i 1
H max log n - при равновероятных символах (p(xi)=1/n),
Кодовые слова фиксированной длины (при равновероятных символах источника)
Каждому из n символов источника ставится в соответствие R бит.
Эффективность кодирования – H/R (H – энтропия)
- n равно целой степени основания 2: число бит на символ источника R=log2(n), H/R=1
-n не равно целой степени основания 2: число бит на символ R= log2(n) +1, H/R<1
Кодовые слова переменной длины (при не равновероятных символах источника)
Должны выполняться два условия:
- требуется минимальное количество кодовых символов (бит) для передачи сообщения;
- отсутствуют потери передаваемой информации (однозначное декодирование)
Для выполнения второго условия используются префиксные (мгновенные) коды, в
которых начало более длинного кодового слова не совпадает с более коротким кодом.
В этом случае исключается неоднозначность при декодировании.
03.01.2018
29

30.

Пример. Четыре символа источника
имеют вероятности (см. табл.) и
кодируются, как показано в табл.
Символ
Вероятность
Код I
Код II
a1
1/2
1
0
a2
1/4
00
10
a3
1/8
01
110
a4
1/8
10
111
Принятая последовательность 001001
имеет два варианта декодирования
(при коде I): a2a4a3 или а2а1а2а1
Код I (слева) не обеспечивает
однозначное декодирование.
Код II (справа) обеспечивает
однозначное декодирование
03.01.2018
30

31. Код Хаффмена

Энтропия источника H(X)=2.11.
Средняя длина кодового слова R=2.21.
Эффективность кодирования
H(X)/R=95.5%.
Длина кодовой посылки обратно
пропорциональна его априорной
вероятности
Символ
сообщения
x1
x2
х3
х4
х5
x6
x7
Вероятность
символа
0.35
0.3
0.2
0.1
0.04
0.005
0.005
Двоичный
код символа
11
10
01
001
0001
00001
00000
03.01.2018
31

32. Код Шеннона-Фэно

Длина кодовой посылки обратно
пропорциональна его априорной
вероятности
Символ сообщения
x1
x2
х3
х4
х5
x6
x7
Вероятность
символа
0.3
0.25
0.25
0.15
0.04
0.005
0.005
Двоичный код
символа
00
01
10
110
1110
11110
11111
03.01.2018
32

33. Лекции 3-4. 1. Некоторые сведения из теории информации.

1.1. Логарифмическая мера информации.
Передается сообщение о событии, вероятность которого (априорная) равна P1.
После приема сообщения вероятность (апостериорная) события для получателя
равна P2. Прирост количества информации I log P2 log P2 log P1
P1
Идеальный канал связи без помех и искажений сигналов (P2=1)
I log P1
Чем меньше вероятность P1 (больше неопределенность) события, тем большая
информация о нем получается в результате приема сообщения. Если в качестве
основания логарифма выбрать 2, то единицей измерения информации является бит.
1.2. Количество информации в дискретных сообщениях.
Найдем информационное содержание сообщения, состоящего из n символов, при
алфавите, насчитывающем L символов S1, S2,…, SL.
Сколько различных последовательностей из n символов можно составить при
заданном алфавите из L различных символов? Рассмотрим частные случаи:
n=1 (одно сообщение содержит один символ) число возможных сообщений равно L;
03.01.2018
33

34.

n=2 (одно сообщение содержит два символа) число возможных сообщений
равно L L и возможные сообщения образуют следующую совокупность:
S1S1
S1S 2
...
S 2 S1
S2 S2
... S 2 S L
...
...
S L S1
S L S2
...
S1S L
...
... S L S L
при произвольном n число возможных сообщений
N (n) Ln
Символы сообщения равновероятны.
Количество информации в сообщении
I n log P1 log( 1 Ln ) n log L
H I n n log L бит/символ
Энтропия случайной величины (или сообщения)
Два свойства сообщений при равновероятных и независимых символах:
а) количество информации в сообщении пропорционально полному числу n
символов и логарифму от числа L различных символов в алфавите;
б) средняя информация, приходящаяся на один символ, зависит только от числа
различных символов в алфавите.
Символы сообщения не равновероятны.
n
Энтропия случайной величины (или сообщения) H j log Pj Pj log Pj бит/символ
j
03.01.2018
n
j
34

35.

Пример. Источник сообщений выдает два
независимых символа: 0 с вероятностью q
и 1 с вероятностью (1-q). Энтропия
H (q) q log q (1 q) log( 1 q)
Два фактора уменьшают энтропию:
а) неравные вероятности символов в сообщении;
б) наличие связей (корреляции) между
отдельными символами в сообщении.
Передаваемые сообщения обладают избыточностью и число символов
в сообщении больше, чем это требуется при их независимости и
равномерном использовании. Поэтому фактическая энтропия H
меньше максимальной Hmax. Избыточность
H
R 1
03.01.2018
H max
35

36.

1.3. Информационная емкость дискретного сигнала
Двоичный сигнал (-1, +1). Энтропия - 1 бит/символ.
и - длительность импульса. T=n и - длительность сообщения.
Количество информации n бит.
Полоса частот w 1/ и.
I n n T и Tw
Количество информации в сигнале
Информационная емкость сигнала C I / T w бит / сек
n
.
Информационная емкость
двоичного сигнала равна
полосе частот сигнала
2. Дискретный сигнал с различными амплитудами.
L - число возможных уровней амплитуды (число различных символов).
Количество информации в сигнале I n n log L (T / и ) log L Tw log L
Информационная емкость сигнала C I n / T w log L бит / сек
03.01.2018
Информационная
емкость является
предельной скоростью
передачи информации 36

37.

1.4. Информационная емкость непрерывного сигнала
T - длительность сигнала. w=Fmax-Fmin – ширина полосы частот.
1/(2Fmax) – расстояние между выборками (теорема Котельникова).
Число выборок сигнала N
T
1 2 Fmax T 1
1 /( 2 Fmax )
Pс – мощность сигнала, Pш - СКО шума
Число L различимых уровней (приблизительно)
L
Pс Pш

Число L можно рассматривать как число различных символов алфавита,
а N – как общее число символов в сообщении
Полная информация в непрерывном сообщении
I T N log L (2 Fmax T 1) log
Pс Pш

Информационная емкость сигнала (предельная скорость безошибочной передачи
информации) при условии 2Fmax T 1
C
P Pш
I T (2 Fmax T 1) 1
log с
Fmax log( 1 ОСШ)
T
T
2

03.01.2018
Точное выражение
(несмотря на
приблизительное
определение L)
37

38.

1.5. Энтропия случайной непрерывной величины.
p(x) - плотность вероятности.
p(xi) xi - вероятность попадания случайной величины x в интервал xi, xi+ xi.
i-ое дискретное сообщение - попадание x в этот интервал.
Энтропия непрерывного распределения
H lim
p
(
x
)
x
log[
p
(
x
)
x
]
i
i
i
i
xi 0
i
H lim
p( xi )[log p ( xi )] xi lim
p ( xi )[log xi ] xi
xi 0
i
xi 0 i
p ( x) log p( x)dx lim
p ( xi )[log xi ] xi .
Не зависит от
плотности вероятности
xi 0 i
Пусть xi= x. Второе слагаемое
lim
p( xi )[log xi ] xi lim
log x p( xi ) x lim
log x p( x)dx lim
log x
xi 0 i
x 0
x 0
i
x 0
Дифференциальная энтропия
H p( x) log p( x)dx
03.01.2018
38

39.

Примеры.
1. Гармоническое колебание со случайной фазой , равномерно
распределенной на интервале [0 2 ], и с амплитудой A0.
p1( x)
Плотность вероятности
1
A02 x 2
2
Средняя мощность сигнала P0 0.5 A0
Энтропия
H 1 log 2
P0
2
2. Случайный процесс с нулевым средним и амплитудой,
равномерно распределенной на интервале [ A0 A0].
Плотность вероятности p2 ( x) 1 2 A0
Энтропия
H 2 log 2 12P0
3. Гауссов случайный процесс с нулевым средним и дисперсией (мощностью) P0.
Энтропия
H 3 log 2 2 eP0
H 3 H 2 log 2
03.01.2018
e
6
0.26
H 2 H1 log 2
24
2
0.64
39

40.

Плотность вероятности процесса со
случайной фазой (1), случайной амплитудой
(2) и гауссова случайного процесса (3)
Энтропия процесса со случайной
фазой (1), случайной амплитудой (2) и
гауссова случайного процесса (3)
Теорема. Среди всех распределений с одинаковой дисперсией гауссово
распределение обладает наибольшей энтропией.
1.6. Энтропия совокупности выборок непрерывного сигнала.
x(t) - сигнал длительностью T сек, с наибольшей частотой Fmax Гц.
Сигнал однозначно определяется N=2FmaxT+1 2FmaxT выборками (интервал t=1/2Fmax).
При независимости выборок (что имеет место для гауссова случайного процесса)
энтропия совокупности выборок в N раз больше энтропии отдельной выборки, то есть
H 2 Fmax TH1
03.01.2018
40

41. 2. Модели каналов без памяти.

2.1. Двоичный симметричный канал без памяти (ДСКБП).
Это канал с аддитивным шумом. В канал включены модулятор и демодулятор, как его
составные части (составной канал).
ДСКБП характеризуется набором X={0,1}
возможных входов, набором Y={0,1} возможных
выходов, а также набором условных вероятностей
P Y 1 X 0 P Y 0 X 1 p
возможных выходов при условии возможных входов
P Y 0 X 0 P Y 1 X 1 1 p
(вероятностей ошибок и правильной передачи)
Двоичный
симметричный канал
без памяти
03.01.2018
41

42.

2.2. Дискретный канал без памяти (ДКБП).
Это канал с аддитивным шумом. В канал включены модулятор и демодулятор, как его
составные части (составной канал).
ДКБП характеризуется набором X={x0, x1, …, xq-1} возможных входов, набором
Y={y0, y1, …, yQ-1} возможных выходов, а также набором qQ условных вероятностей
возможных выходов при условии возможных входов
i=(1,2,…,Q-1), j=(1,2,…,q-1)
P(Y yi X x j ) P( yi x j )
- u1, u2, …, un – входная последовательность из n символов,
выбираемых из алфавита X,
- v1, v 2 , …, vn - выходная последовательность из n символов
из алфавита Y,
- совместные условные вероятности при отсутствии памяти
в канале равны
n
Дискретный канал
без памяти
03.01.2018
P(v1 , v2 ,..., vn u1 , u2 ,..., un ) P(vk uk )
k 1
42

43.

2.3. Канал с дискретным входом и непрерывным выходом.
Это канал с аддитивным шумом. В канал включены модулятор и демодулятор, как его
составные части (составной канал).
Канал характеризуется набором X={x0, x1, …, xq-1} возможных
входов, непрерывным выходом Y={ , }, и условными
плотностями вероятностей P( y X x )
k=0,1,…,q-1
k
Наиболее важный канал этого типа – канал с аддитивным гауссовым шумом
Y=X+n, где n – гауссовы случайные величины с нулевым средним и СКО ,
X=xk (k=1,2,…,q-1).
( y xk )2
1
N ( xk , )
exp
Условная плотность вероятностей для X=xk P( y X xk )
2
2
2
- x1, x2, …, xn – входная последовательность из n символов,
- y1, y2, …, yn - выходная последовательность, yi=xi+ni (i=1,2,…,n).
- совместные условные вероятности при отсутствии памяти в канале
n
P( y1 , y2 ,..., yn x1 , x2 ,..., xn ) P( yk xk )
k 1
03.01.2018
43

44.

2.4. Сигнальный канал.
Это физический канал (без модулятора и демодулятора) с аддитивным шумом,
в котором вход x(t) и выход y(t) являются сигналами (сигнальный канал).
Канал имеет единичный коэффициент передачи в полосе частот W.
y (t ) x(t ) n(t )
Выходной сигнал
Разложения x(t), y(t) и n(t) в полный ряд по ортонормированным функциям fi(t)
y(t ) yi f i (t );
x(t ) xi f i (t );
i
n(t ) ni f i (t )
i
T
Условия ортонормированности
0
i
1, (i j )
*
f i (t ) f j (t )dt ij
0, (i j )
T
Коэффициенты разложения
yi y(t ) f i (t )dt ,
*
0
yi xi ni
Выходной сигнал
TT
ni n j n(t )n ( )
*
*
*
ni – статистически независимые
случайные величины
03.01.2018
T
xi x(t ) f i (t )dt , ni n(t ) f i (t )dt
*
*
0
p( yi / xi )
fi (t ) f j ( )dtd i2
00
T
T
0
(y x )
1
exp i 2i
2 i
2 i
2
N ( xi , i )
fi* (t ) f j (t )dt i2 ij
0
N
p( y1 , y2 ,..., y N / x1 , x2 ,..., x N ) p( yi / xi )
i 1
44

45.

3. Спектральная эффективность каналов без памяти.
3.1. Дискретный канал без памяти (ДКБП).
ДКБП характеризуется набором X={x0, x1, …, xq-1} возможных входов, набором
Y={y0, y1, …, yQ-1} возможных выходов, а также набором qQ условных вероятностей
P ( yi x j )
i=(1,2,…,Q-1), j=(1,2,…,q-1)
log P( yi x j ) P( yi ) - взаимная информация о событии X=xj, когда имеет место событие Y=yi
q 1
P( yi ) P( xk ) P( yi / xk )
k 0
q 1 Q 1
I ( X , Y ) P x j P yi / x j log 2
j 0 i 0
P yi / x j
P yi
- средняя взаимная информация о событии
X, когда имеет место событие Y
Спектральной эффективностью (СЭ) канала называется максимальное значение
величины I(X,Y) по набору вероятностей P ( x j ) входных символов.
q 1 Q 1
C max I ( X , Y ) max P x j P yi / x j log 2
P( x j )
P( x j )
j 0 i 0
при условиях P( x j ) 0,
03.01.2018
q 1
P yi / x j
P yi
Единица измерения
СЭ - бит/символ
P( x ) 1
j 0
j
45

46.

Пример.
ДСКБП с переходными вероятностями P(0/1)=p и P(1/0)=p.
Средняя взаимная информация максимальна при P(0)=P(1)=1/2.
C 1 p log 2 p (1 p) log 2 (1 p) 1 H ( p)
H(p) – энтропия
Поведение вероятности ошибки и
СЭ ДСКБП в зависимости от ОСШ
03.01.2018
46

47.

3.2. Канал с дискретным входом и непрерывным выходом
( y xk )2
1
N ( xk , )
P( y X xk )
exp
2
2
2
q 1
q 1
p ( y / xi )
C max p( y / xi ) P( xi ) log 2
dy
P ( xi )
p
(
y
)
i 0
p ( y ) p ( y / xk ) p ( xk )
k 0
Пример. X – случайная дискретная величина с двумя значениями X1=A и X2= –A. Средняя
взаимная информация максимальна при равновероятных входах P(A)=P(–A)=1/2.
1
p( y / A)
p ( y / A)
C p( y / A) log 2
p ( y / A) log 2
dy
2
p( y)
p( y )
1
0,8
0,6
0,4
СЭ (бит/символ) в
зависимости от
ОСШ A2/2 2 (дБ)
0,2
0
-20 03.01.2018
-12
-4
4
12
20
47

48.

3.3. Ограниченный по полосе частот канал с аддитивным шумом и дискретным
временем (канал с непрерывным входом и непрерывным выходом).
C lim max
СЭ такого канала в единицу времени (Шеннон, 1948 год)
Средняя взаимная информация между X и Y
T p ( x )
I ( X ;Y )
1
I ( X ;Y )
T
p( x) p( y / x) log
p( y / x)
dxdy
p( y )
Непрерывные функции y(t), x(t) и n(t) заменяем их выборками {yi}, {xi} и {ni}, взятыми
через интервалы времени t=1/2W (теорема отсчетов).
Затем находим среднюю взаимную информацию между векторами XN ={x1, …, xN} и
YN ={y1, …, yN} размерности N=2WT. Имеем yi xi ni
Выборки шума статистически независимыми между собой.
Средняя взаимная информация между XN и YN равна сумме
средних взаимных информаций между отдельными выборками
N
I ( X N ; YN )
i 1
p( yi / xi ) p( xi ) log
I ( xi , yi ) H ( yi ) H ( yi / xi )
03.01.2018
N
I ( X N ; YN ) I ( xi ; yi )
i 1
p( yi / xi )
dxi dyi
p ( yi )
I ( xi , yi ) H ( yi ) H (ni )
48

49.

Энтропия N=2WT выборок шума
H (N N ) 2WT log 2 2 e 02
xi – гауссовы случайные величины с нулевым
средним и стандартным отклонением x
Энтропия N=2WT выборок выходной смеси
xi 2
1
p( xi )
exp 2 N (0, x )
2 x
2 x
H (YN ) 2WT log 2 2 e( x2 02 )
x2
1 x2
C N log 1 2 WT log 1 2
2 0
0
СЭ канала в единицу времени (удельная СЭ)
x2
C W log 1 2 W log 1 ОСШ
0
Нормированная СЭ
(бит/символ)
03.01.2018
49

50.

Спектральная плотность мощности шума - N 0 02 W
C W log 1
WN 0
2
x
W
2x
W ln 1
WN 0
2x
C
ln 2
N 0 ln 2
C 14.4
Удельная СЭ при
x2 N 0 10
Eb – энергия одного бита, а СЭ C определена в бит/символ.
Спектральная плотность мощности шума - x2 CEb / T C Eb
C E
C W log 1 b
W N0
03.01.2018
Eb 2 C W 1
N0
C W
C W 1
Eb N 0 1
50

51.

1. C W
Eb 2C W
C
C
exp ln 2 ln
N0 C W
W
W
2. C W 0
Eb
2C W 1
lim
ln 2 1,6 дБ
N 0 C W 0 C W
Теорема кодирования в
канале с шумами
(теорема Шеннона)
Существуют кодеры канала (и декодеры),
которые могут обеспечить надежную связь
со сколь угодно малой вероятностью
ошибки, если скорость передачи R<C.
Если R>C, то не существуют кодеры
канала (и декодеры), которые могут
обеспечить стремление вероятности
ошибки к нулю.
Смысл теоремы Шеннона: шум может определять СЭ канала, а не точность передачи
информации. В пределе можно получить сколь угодно высокую безошибочность
передачи данных, применяя кодирование достаточно больших блоков.
03.01.2018
51

52.

Лекция 5.
Модуляции, используемые в системах цифровой связи
1. Цифровой модулятор преобразует битовую последовательность в последовательность
узкополосных электрических сигналов, имеющих форму импульсов.
2. Модуляция M-го порядка. Если последовательность {an} из b бит преобразуется в
сигнал, то модулятор должен иметь возможность вырабатывать M=2b
детерминированных сигналов {sm(t), m=1,2,…,M}, так как число возможных двоичных
последовательностей, которые можно получить из b бит, равно 2b.
3. Если двоичную последовательность необходимо передавать со скоростью R бит/сек,
то она входит в модулятор за время b/R секунд, т.е. длительность сигналов должна
составлять b/R секунд, а символьная скорость равна R/b символов в секунду.
4. Когда отображение цифровой последовательности {an} в сигнал осуществляется так,
что сигнал, передаваемый на данном временном интервале, зависит от одного или более
сигналов, переданных раньше, то говорят, что модулятор имеет память.
5. Если отображение цифровой последовательности {an} в сигналы {sm(t)},
осуществляется так, что передаваемые сигналы не зависят от ранее переданных
сигналов, то модулятор называют модулятором без памяти.
03.01.2018
52

53.

1. Одномерная амплитудная модуляция (АМ).
Цифровой АМ сигнал на интервале времени (0 t T) можно представить как
sm (t ) Re Am g (t ) exp( j 2 f c t ) Am g (t ) cos 2 f 0t
где Am (m=1,2,…,M) - возможные амплитуды, соответствующие M=2b сигналам.
Функция g(t) описывает форму вещественного сигнального импульса, которая
определяет спектр передаваемого сигнала.
Амплитуда сигнала Am принимает дискретные значения
Am 2m 1 M d , m 1,2, , M ,
Таким образом, имеем, что
где 2d – расстояние между соседними амплитудами
A1 ( M 1)d ,..., AM ( M 1)d .
Двоичная последовательность на входе модулятора имеет скорость R бит/сек.
Скорость передачи символов (скорость изменения амплитуды несущей ) равна R/b.
Tb 1 / R
- информационный или битовый временной интервал
T k / R kTb - сигнальный интервал
03.01.2018
53

54.

T
m
2
sm
(t )dt
0
T
1 2 2
1
Am g (t )dt Am2 g
2
2
0
- энергия сигналов АМ,
Eg - энергия импульса g(t)
АМ сигналы являются одномерными и их можно представить в виде
sm (t ) sm f (t )
где
s m Am 0.5 g
f (t ) (2 g ) g (t ) cos 2 f c t
Диаграмма отображения для
сигналов АМ
Код Грея - соседние амплитуды
сигналов соответствуют
информационным двоичным блокам,
различающимся только одним битом.
- евклидово расстояние между
1
g Am An d 2 g m n
какой-либо парой сигнальных точек
2
- минимальное евклидово расстояние
( e)
dmin
d 2 g
между парой соседних точек
s1 (t ) s2 (t )
При M=2 двоичная АМ имеет специальное свойство:
Два сигнала имеют одинаковую энергию и коэффициент их
взаимной корреляции равен –1 (противоположные сигналы)
(e)
d mn
sm sn 2
03.01.2018
54

55.

2. Двумерная фазовая модуляция (ФМ).
При ФМ M сигналов на интервале времени (0 t T) можно представить в виде
2 (m 1)
sm (t ) Re g (t )e j 2 ( m 1) / M e j 2 f 0t g (t ) cos 2 f 0t
M
2 (m 1)
2 (m 1)
g (t ) cos
cos 2 f 0t g (t ) sin
sin 2 f 0t ,
M
M
m 2 (m 1) / M
- M возможных значений фазы несущей, которая переносит
передаваемую информацию
T
ФМ сигналы имеют одинаковую энергию
E
T
2
sm
(t )dt
0
1
1
g 2 (t )dt E g
20
2
Сигналы с ФМ являются двумерными и их можно представить в виде
sm (t ) sm1 f1 (t ) sm 2 f 2 (t )
S m sm1, sm2 T
sm1
g
где f1 (t ) (2 g ) g (t ) cos 2 f 0t ,
- двумерный вектор с компонентами
g
2 (m 1)
2 (m 1)
cos
, sm 2
sin
,
2
M
2
M
03.01.2018
f 2 (t ) (2 g ) g (t ) sin 2 f 0t
(m 1,2, , M ).
55

56.

Диаграмма
отображения для
сигналов ФМ
1/ 2
(e)
d mn
2
Sm Sn g 1 cos (m n)
M
2
(e)
d min
g 1 cos
M
03.01.2018
- евклидово расстояние между
какой-либо парой сигнальных точек
- минимальное евклидово расстояние
между парой соседних точек
56

57.

3. Двумерная квадратурная амплитудная модуляция (КАМ)
Одновременная передача двух отдельных b-битовых информационных блоков на двух
несущих, находящихся в квадратуре (cos2 f0t и sin2 f0t), называется квадратурной АМ
или КАМ.
Два представления сигналов КАМ на интервале времени (0 t T)
sm (t ) Re Amc jAms g (t )e j 2 f0t Amc g (t ) cos 2 f 0t Ams g (t ) sin 2 f 0t
где Amc и Ams – информационные амплитуды для квадратурных несущих
2
2
sm (t ) Re Vme j m g (t )e j 2 f ct Vm g (t ) cos 2 fct m , Vm Amc Ams
m arctg Ams Amc
Сигнал КАМ можно рассматривать как комбинацию АМ и ФМ.
Можно образовать определенную комбинацию М1-уровневой АМ и М2-позиционной ФМ
В результате получается сигнальное созвездие комбинированной АМ-ФМ, содержащее
М=М1 М2 точек пространства сигналов.
Если М1=2n и М2=2m, то сигнальное созвездие позволяет передавать m+n=logM1M2
двоичных символов со скоростью R/(m+n).
03.01.2018
57

58.

Диаграммы отображения
для сигналов КАМ при
M=8 и M=16
Сигналы КАМ являются двумерными и их можно представить в виде
sm (t ) sm1 f1 (t ) sm 2 f 2 (t )
где
S m (sm1, sm2 )T Amc 0,5 g , Ams 0,5 g , m 1,2, , M .
( e)
d mn
S m S n 0,5 g ( Amc Anc ) 2 ( Ams Ans ) 2
03.01.2018
1/ 2
- двумерный вектор
- евклидово расстояние между
произвольной парой сигнальных
векторов (сигнальных точек)
58

59.

Наиболее интересен случай, когда амплитуды
квадратурных сигналов принимают дискретные значения
2m 1 M d , (m 1,2, , M )
Диаграмма отображения становится прямоугольной
Диаграммы отображения для
сигналов КАМ при разных M
( e)
dmin
d 2 g
03.01.2018
- минимальное евклидово расстояние между парой соседних точек
59

60.

Двумерные 4-ФМ, 16-КАМ и 64-КАМ сигналы имеют вид
( I jQ )
d (t ) Re
g (t ) exp(2 f c t )
k
нормирующий множитель (выбирается из
условия единичной средней мощности сигналов)
2-ФМ сигналы: I= 1; Q=0.
k=1
d min 2
4-ФМ сигналы: I= 1; Q= 1
k 2
d min 2
16-КАМ сигналы: I= 1, 3; Q= 1, 3
k 10
d min 2
64-КАМ сигналы: I= 1, 3, 5, 7; Q= 1, 3, 5, 7
03.01.2018
k 42
dmin 2
10
42
60

61.

Выполняется
код Грея
Таблицы BPSK, QPSK и
16-QAM модуляций
Вход b0
I-выход
Q-выход
0
-1
0
Вход b0 b1
I-выход
Вход b2 b3
Q-выход
1
1
0
00
-3
00
-3
Вход b0
Вход b1
01
-1
01
-1
I-выход
Q-выход
0
-1
0
-1
11
1
11
1
1
1
1
1
10
3
10
3
61

62.

Выполняется
код Грея
Таблица 64-QAM
модуляции
03.01.2018
Вход
b0 b1 b2
Iвыход
Вход b3
b4 b5
Qвыход
000
-7
000
-7
001
-5
001
-5
011
-3
011
-3
010
-1
010
-1
110
1
110
1
111
3
111
3
101
5
101
5
100
7
100
7
62

63.

Применение некоторых модуляций в системах связи
1. Передача сигналов с модуляцией QPSK
Исходный поток импульсов, состоящий из ( 1),
разделяется на два квадратурных потока.
T - длительность импульса.
2T - длительность импульса в квадратурах.
QPSK сигнал
s (t )
1
d I (t ) cos 2 f 0 t
d Q (t ) sin 2 f 0 t
4
4
2
2
1
s(t ) cos 2 f 0t (t )
Потоки данных
(QPSK модуляция)
QPSK модулятор
За время 2T фаза несущей может измениться один раз.
Импульсы не меняют знака - фаза не изменяется.
Один импульс меняет знак - фаза изменяется на 90 .
Оба импульса меняют знак - фаза изменяется на 180 .
63

64.

2. Передача сигналов с модуляцией OQPSK (Offset QPSK)
В QPSK потоки импульсов dI(t) и dQ(t)
синхронизированы так, что их переходы
совпадают по времени (см. предыдущий слайд).
В OQPSK эти потоки синхронизированы со
сдвигом на T. Поэтому фаза несущей не может
измениться на 180 . За каждые T секунд фаза
может измениться только на 0 или 90 .
Потоки данных (OQPSK модуляция)
Потоки данных
(OQPSK модуляция)
QPSK и OQPSK
сигналы
64

65.

3. Манипуляция с минимальным частотным сдвигом (ММС)
ММС - разновидность OQPSK с
синусоидальным взвешиванием символов.
Это модуляция по частоте с памятью.
t
t
s (t ) d I (t ) cos
cos 2 f 0t dQ (t ) sin
sin 2 f 0t
2
T
2
T
d I 1, d Q 1,
d I 1, d Q 1,
t
s (t ) cos 2 f 0t
2T
t
s (t ) cos 2 f 0t
2T
1. Сигнал s(t) имеет постоянную составляющую
2. Фаза несущей непрерывна при изменении
значений dI(t) и dQ(t)
3. Сигнал s(t) - частотно манипулированный
сигнал с частотами передачи
f1 f 0
1
4T
f2 f0
1
4T
4. Разнесение между частотами - 1 2T
Формирование сигнала ММС
65

66.

Нормированная спектральная плотность
мощности ММС сигнала
cos 2 fT
vv ( f )
2 2
1
16
f
T
Нормированная спектральная плотность
мощности QPSK и OQPSK сигналов
sin 2 (2 fT )
vv ( f )
(2 fT ) 2
2
Спектральная плотность
мощности QPSK или
OQPSK сигнала и ММС
сигнала (пунктир)
Боковые максимумы для ММС
сигнала значительно ниже, чем для
QPSK или OQPSK сигналов
66

67.

4. Гауссова частотная манипуляция с минимальным частотным
сдвигом (GMSK - Gaussian Minimum Shift Keying) -
На интервале одного символа фаза
несущей частоты изменяется на 90
град. и непрерывна при переходе
от одного символа к другому
Амплитуда изменяется только
при передаче 1.
Это - дифференциальное
кодирование.
bk ak b k 1
ak – входная двоичная информационная последовательность кодера,
bk – выходная последовательность кодера, - суммирование по модулю 2.
bk=1, передаваемый сигнал – положительный прямоугольный импульс,
bk=0, передаваемый сигнал – это отрицательный прямоугольный импульс.
Операция дифференциального кодирования вводит память в сигнал.
67

68.

Диаграмма состояний кодера и модулятора
bk ak b k 1
Решетчатая диаграмма кодера и модулятора
ИХ гауссова фильтра нижних частот
2 2 ( BT ) 2 t 2
h(t ) exp
2
ln(
2
)
T
BT - безразмерная величина,
B - полоса фильтра Гаусса по
уровню -3 дБ,
T - длительность импульса
BT=0.3 (GSM стандарт)
GMSK модулятор
68

69.

Лекция 6.
1. Оптимальный прием сигналов с различными модуляциями
на фоне гауссова шума
На интервале времени (0–Ts) передается один из M сигналов (гипотез) {dm(t)}, m=1, 2,.., M.
x(t ) d m (t ) z (t )
2
z (t ) 0, z (t ) 02
Приемник состоит из демодулятора и детектора.
Демодулятор превращает принимаемую смесь сигнала и шума в
N-мерный вектор (N размерность сигнала) X ( x1, x2 ,..., x N )T
Детектор решает на основе вектора X, какой из M возможных
сигналов передан
1. Корреляционный демодулятор.
Ts
0
1
f k (t ) f n (t )dt
0
( k n)
( k n)
Функции fn (t) образуют
ортонормированный базис
размерности N
03.01.2018
69

70.

2-ФМ сигналы (N=1)
g
Ts
g
2
d1 (t ) g (t ) cos 2 f ct ,
d 2 (t ) g (t ) cos 2 f ct
(t )dt – энергия импульса g(t).
0
d1 (t ) d1 f1 (t )
d 2 (t ) d 2 f1 (t )
d1( 2) 0.5 E g
Прямоугольный импульс – g(t)=const на интервале (0–Ts)
f1 (t ) 2 E g g (t ) cos 2 f ct
f1 (t ) 2 Ts cos 2 f ct
Демодулятор состоит из одного коррелятора.
4-ФМ-сигналы
(N=2)сигналы (N=2)
4-ФМ,
16- и 64-КАМ
Прямоугольный импульс
f1 (t ) 2 Ts cos 2 f ct
f 2 (t ) 2 Ts sin 2 f ct
Демодулятор состоит из двух корреляторов.
03.01.2018
70

71.

Проекции на базисные функции
Ts
Ts
0
0
x(t ) f k (t )dt [d m (t ) z(t )] f k (t )dt
Ts
Ts
Ts
0
0
0
xk x(t ) f k (t )dt , d mk d m (t ) f k (t )dt , zk z (t ) f k (t )dt
xk d mk z k
(k 1, 2,..., N )
Ts
z k z (t ) f k (t )dt 0
0
zk zm
Ts Ts
Ts Ts
00
00
z (t ) z ( ) f k (t ) fm ( )dtd z
Ts
0.5 N 0 f k (t ) f m ( )dt 0.5 N 0 km,
0
2z 0.5N0
z k2
1
p( z k )
exp 2
2
2 z
z
03.01.2018
2
(t ) (t ) f k (t ) f m ( )dtd
0.5N0 – спектральная плотность мощности шума в
области положительных и отрицательных частот
xk d mk
2x 2z 0.5N 0
xk dmk 2
1
p( xk )
exp
2
2 x
2 x
Статистически независимые гауссовы случайные величины
71

72.

N
p( X / d m ) p( x1 , x2 ,..., x N / d m1d m2 ,..., d mN ) p( xk / d mk )
k 1
( xk d mk ) 2
1
p( xk / d mk )
exp
N
N 0
0
N ( xk d mk ) 2
p( X / d m )
exp
N 2
N
( N 0 )
0
k 1
1
m=1,2, …, M
2. Согласованный фильтр (СФ) как демодулятор.
ИХ k-го согласованного фильтра
согласована с k-й базисной функцией
f k (Ts t ),
hk (t )
0,
03.01.2018
0 t Ts
t 0, t Ts
72

73.

Выходные сигналы СФ (интеграл Дюамеля)
t
t
0
0
xk (t ) x( )hk (t )d x( ) f k (Ts t )d
Отсчет в момент времени t=Ts
Совпадение с выходными
сигналами корреляторов
Ts
xk (Ts ) x( ) f k ( )d
0
3. Основные критерии, используемые для принятия решений.
- Критерий максимума апостериорной вероятности
- Критерий максимального правдоподобия
Критерий максимума апостериорной вероятности.
на вычислении апостериорных вероятностей
Алгоритм оценки переданного сигнала
d m arg max { p(d m X)}
p(d m X)
(m=1,2,…,M)
d m (d m1, d m2 ,..., d mN )T - N-мерный вектор
dm
Тождество
p(d m , X) p(d m X) p(X) p(X d m ) p(d m )
Правило Байеса
03.01.2018
p(d m
p( X d m ) p(d m )
X)
p( X)
p ( X)
M
p(X dm ) p(d m )
m 1
73

74.

Критерий максимального правдоподобия.
Используется когда априорная вероятность неизвестна
(любая из M гипотез равновероятна)
p(d m
p(d m ) 1 M
(m=1,2,…,M)
p( X d m ) p(d m )
X)
p( X)
Алгоритм оценки переданного сигнала
d m arg max { p( X d m )}
d m (d m1, d m2 ,..., d mN )T
- N-мерный вектор
dm
Условная плотность вероятности
1
1
ln p( X d m ) N ln( N 0 )
2
N0
D( X, d m )
N
p( X d m )
называется правдоподобием dm
N
( xk d mk ) 2
k 1
( xk d mk ) 2 X d m
2
Дистанционная
метрика (метрика
расстояний)
k 1
d m arg min {D( X, d m )}
Алгоритм оценки - минимизация евклидова расстояния
dm
03.01.2018
74

75.

Пример. 4-ФМ сигналы (N=2)
Обозначение
D( X, d m ) Dm
Детектирование по
минимуму расстояния
D( X, d m )
N
k 1
xk2
N
N
k 1
k 1
2
2 xk d mk d mk
X 2 XT d m d m
D ( X, d m ) 2XT d m d m
03.01.2018
2
2
C ( X, d m ) 2XT d m d m
2
2
Корреляционная
метрика
75

76.

N
C ( X, d m ) 2 xk d mk Em
k 1
Ts
N
0
k 1
Ts
xk x(t ) f k (t )dt
0
C ( X, d m ) 2 x(t ) d mk f k (t )dt Em
Ts
C ( X, d m ) 2 x(t )d m (t )dt Em .
0
Оптимальный
приемник
03.01.2018
76

77.

2. Вероятность битовой и символьной ошибки
Критерий максимального правдоподобия
1. 2-ФМ сигналы.
x d1( 2) z Eb z
p x d1( 2)
( x Eb ) 2
1
exp
N
N 0
0
Функции
правдоподобия
ln ( x) ln
03.01.2018
p x d1 4 x Eb
p x d 2
N0
Правило принятия решения:
x>0 – передан сигнал d1(t),
x<0 – передан сигнал d2(t)
77

78.

Вероятность битовой ошибки при передаче первого сигнала
2 Eb
BER1 p( x d1 )dx Q
N0
0
1
2
Q( x )
exp(
0
.
5
t
)dt
2 x
Q(x) – функция Маркума
Вероятность битовой ошибки при передаче второго сигнала
2 Eb
BER2 p( x d 2 )dx Q
N0
0
Вероятность битовой ошибки
2 Eb
1
BER ( BER1 BER2 ) Q
2
N0
b Eb / N 0 – ОСШ на бит
2-ФМ-сигналы b 0 Es N 0 – ОСШ на символ
0>>1
0 0
1
0.5 x 2
Q( x)
e
x 2
BER 0.5
BER
Q( 2 b )
1
e 0
2 0
BER не может превышать 0.5
Вероятность
битовой ошибки совпадает с вероятностью символьной ошибки
03.01.2018
78

79.

BER
1
1 ( 2 0 )
2
x
2
( x)
exp( 0.5 t 2 )dt
0
(x) – интеграл вероятности
2
BER Q Eb d min
2N0 dmin=2 - минимальное евклидово расстояние между сигналами
BER в зависимости от ОСШ
для 2-ФМ, 4-ФМ, 16-КАМ и
64-КАМ сигналов (кривые
1, 2, 3, 4)
2-ФМ сигналы.
BER = 0.001 при ОСШ=6.9 дБ
03.01.2018
0 Es N 0 – ОСШ на символ
79

80.

2. 4-ФМ сигналы.
Eb
PT
PT
P
0 s 0 b 0
N 0 kb N 0
N0
N 0 Rb
E
E
Связь ОСШ с ОСШ на бит b b s 0
N0 2N0
2
ОСШ на бит b
4-ФМ (kb=2) реализуется с помощью одновременной
передачи 2-ФМ в двух квадратурах.
В каждой квадратуре - половина мощности (0.5P0).
Скорость передачи исходного потока – Rb.
Скорость передачи в каждой квадратуре - 0.5Rb.
ОСШ на бит в каждом квадратурном канале такое же,
как для 2-ФМ сигналов.
BER в зависимости от отношения Eb/N0 одинаково
для 2-ФМ и 4-ФМ сигналов.
4-ФМ модулятор
d min 2 - минимальное евклидово расстояние между 4-ФМ сигналами
BER Q 0
03.01.2018
BER
1
1 ( 0 )
2
2
BER Q Eb d min
N 0
80

81.

Связь ОСШ с ОСШ на бит 0
P0
02
Es
E
kb b
Ts N 0W
N0
Одинаковая BER достигается для 4-ФМ при ОСШ большем в 2 раза (на 3 дБ),
чем для 2-ФМ.
BER в зависимости от ОСШ
для 2-ФМ, 4-ФМ, 16-КАМ и
64-КАМ сигналов (кривые
1, 2, 3, 4)
0 Es N 0 – ОСШ на символ
03.01.2018
4-ФМ сигналы.
BER = 0.001 при ОСШ=9.9 дБ
81

82.

Вероятность символьной ошибки (SER)
Вероятность правильного приема для 4-ФМ-сигнала
( M 4)
pcorrect
( M 2) 2
1 BER
( M 4)
pcorrect
1 Q 2 b
2
1
( M 4)
SER( M 4) 1 pcorrect
2Q 2 b 1 Q 2 b
2
b>>1
SER( M 4) 2Q 2 b
03.01.2018
SER = 2 BER
Следствие
кода Грея
82

83.

3. 16-КАМ сигналы.
3 0 1 0 1 0
Q 3
Q 5
BER Q
4 5 2
5 4
5
SER 4 BER
Следствие
кода Грея
BER в зависимости от ОСШ
для 2-ФМ, 4-ФМ, 16-КАМ и
64-КАМ сигналов (кривые
1, 2, 3, 4)
03.01.2018
0 Es N 0 – ОСШ на символ
16-КАМсигналы.
BER = 0.001 при
ОСШ=16.7 дБ
83

84.

4. 64-КАМ сигналы.
BER
7 0 1 0 1 0 1 0 1
Q 3
Q 5
Q 9
Q 13 0
Q
12 21 2 21 12 21 12 21 12
21
SER 6 BER
Следствие
кода Грея
BER в зависимости от ОСШ
для 2-ФМ, 4-ФМ, 16-КАМ и
64-КАМ сигналов (кривые
1, 2, 3, 4)
03.01.2018
0 Es N 0 – ОСШ на символ
64-КАМ сигналы.
BER = 0.001 при
ОСШ=22.7 дБ
84

85.

Приближенная формула для достаточно высоких уровней модуляции
d2
SER N Q 0 min
2
N 4 – число точек, наиболее близко расположенных к выбранной точке в диаграмме
отображения бит в символы, dmin – минимальное евклидово расстояние.
d min
2
10
(16 КАМ), d min
Q( x) exp( 0.5x )
2
2
42
(64 КАМ),
2
0 d min
SER N exp
4
BER SER kb
Следствие
кода Грея
03.01.2018
85

86.

0
P0
02
Es
E
kb b
Ts N 0W
N0
kb= 1, 2, 4 и 6 для 2-ФМ, 4-ФМ, 16-КАМ и 64-КАМ, соответственно
BER = 0.001
Eb/N0 = 6.9, 6.9, 10.7 и 15.9 дБ
(2-ФМ, 4-ФМ, 16-КАМ и 64-КАМ
сигналы)
BER в зависимости от Eb/N0
для 2-ФМ, 4-ФМ, 16-КАМ и
64-КАМ сигналов (кривые
1, 2, 3, 4)
03.01.2018
b Eb / N 0 – ОСШ на бит
86
English     Русский Rules