Similar presentations:
Лекции по МИСУПИ
1.
Лекция №1I часть
Теория передачи сигналов (ТПС)
В основе дисциплины «Методы исследования систем управления и передачи
информации» лежит теория передачи сигналов (ТПС).
В курсе ТПС изучаются способы передачи информации от источника к потребителю.
Основные понятия курса: информация, сообщение, сигнал, система связи.
Информация – совокупность сведений о каких-либо событиях, явлениях или предметах.
Сообщение – форма представления информации в виде совокупности букв, цифр, знаков,
символов.
Сигнал – материальный носитель сообщения в виде физического процесса (звуковой или
электромагнитной волны, электрического тока).
Система связи – совокупность технических средств, предназначенных для передачи
сообщений в виде электрических или оптических сигналов по линиям связи.
Система связи состоит из передающего и приемного устройств, линейных сооружений
(электрического или оптического кабеля, воздушных линий, а также усилительных и
регенерационных устройств).
1
2. Структурная схема системы связи
(t )Источник
сигналов
Передающее
устройство
S ( , t )
(t )
y (t )
Линия связи
n(t )
Приемное
устройство
Получатель
информации
y (t ) S ( , t ) n(t )
Источник
помех
Передающее устройство – предназначено для преобразования сообщения в сигнал-переносчик,
способный распространяться по линии связи.
Приемное устройство - предназначено для обратного преобразования сигнала-переносчика в
сообщение.
Линия связи – физическая среда, по которой распространяется сигнал-переносчик (электрический
или оптический кабель, воздушная линия связи, электромагнитная волна или радиоканал).
Важнейшими параметрами системы связи являются: энергия, затраченная на передачу сигналапереносчика; полоса частот канала связи, которые выбираются, исходя из заданного качества
передачи.
2
3. Основы теории немодулированных сигналов
Немодулированные сигналы – это сигналы, параметры которых не изменяются взависимости от других сигналов.
Модулированные сигналы – это сигналы, параметры которых изменяются под
действием других сигналов.
Немодулированные сигналы подразделяются на две группы: детерминированные сигналы,
случайные сигналы.
Детерминированные сигналы и их характеристики
Детерминированные сигналы подчиняются определенным функциям времени и при
известных параметрах этих функций могут быть определены точно на сколь угодно
большом промежутке времени.
S (t ) U m cos( o t o )
Например,
Um
,
o
,
o
- известные параметры синусоидальной функции
Детерминированные сигналы делятся на:
1) периодические
2) непериодические
S (t ) S (t T0 )
S (t ) S (t T0 )
3
4.
Основные характеристики детерминированных сигналов:мощность, энергия, корреляционная функция, амплитудно-частотный спектр.
P(t ) S 2 (t )
- мгновенная мощность сигнала
T
E S 2 (t )dt
- энергия сигнала
0
T - длительность сигнала
T
1
E
2
Pср S (t )dt
T0
T
- средняя мощность сигнала
Для синусоидального сигнала:
Um
Т0
U m2 T0
t Е (U m cos 0 t ) dt
2
0
2
Т0
Е U m2
Рср
Т0
2
4
5. Корреляционные характеристики детерминированных сигналов
ТRав ( ) S (t ) S (t )dt
0
Автокорреляционная функция сигналов с
конечной энергией
Временной сдвиг между значениями сигналов
Т
1
R ав ( ) im S (t ) S (t )dt
T T 0
1
Автокорреляционная функция сигналов с бесконечно
большой энергией
T
RS1S2 ( ) S1 (t ) S 2 (t )dt
Функция взаимной корреляции сигналов с
конечной энергией
0
T
1
RS1S2 ( ) im S1 (t ) S 2 (t )dt
T T 0
T
RS1S2 (0) S1 (t ) S 2 (t )dt
0
Функция взаимной корреляции сигналов с
бесконечно большой энергией
при
S1 (t ) S 2 (t )
при
S1 (t ) S 2 (t )
Определение
ортогональности
сигналов
Корреляция определяет зависимость между двумя значениями сигнала (сигналов),
отстоящих друг от друга на временной промежуток
5
6.
Автокорреляционная функция прямоугольного импульсаи
Аим п
Т
Rав ( ) S (t ) S (t )dt
t
0
А
t
и
2
Е S 2 (t )dt Аимп
и
Rав ( )
0
Е Rав (0)
и
и
6
7.
Лекция №2Случайные сигналы и их характеристики
Случайные сигнал (процесс) изменяется случайным образом и не может быть точно определен
во времени.
t1
t2
tn
Случайный процесс X (t ) характеризуется совокупностью реализаций
случайного сигнала
x1 (t ), x2 (t )....xn (t )
xк (t )
.
Случайный процесс в фиксированный момент времени
величина.
t n есть случайная
Совокупность случайных величин реализаций x1 (t ), x2 (t )....xn (t ) в момент
времени
n есть сечение случайного процесса.
t
7
8.
Определение ФРВДля одномерной ФРВ
P(t1 ) [ X (t1 ) x1 ]
Для многомерной ФРВ
P(t1 ) [ X (t1 ) x2 ]
P X (t1 ) x1 ; X (t 2 ) x2 ,.... X (t n ) xn
P(t1 ) [ X (t1 ) xn ]
Значения x1 , x2 ,.......xn меняются во всем диапазоне изменений случайного процесса X (t )
(флуктуационной помехи n(t ) или первичного сигнала (t ) ) .
8
9.
Функция распределения вероятностей случайного процесса ФРВ(интегральный закон)
F ( x1 , x2 ,.....xn ; t1 , t 2 ,....t n )
Случайный процесс X (t ) полностью задан, если для любого набора моментов времени
t1 , t 2 ,....t n
и любых значений сигнала x1 , x2 ,.......xn можно вычислить вероятность
того, что в указанные моменты времени случайный сигнал X (t ) принимает значения, не
x1 , x2 ,.......xn , а именно:
превышающие
F ( x1 , x2 ,.....xn ; t1 , t 2 ,....t n ) Р X (t1 ) x1 , X (t 2 ) x2 ,...... X (t n ) xn
Р X (t1 ) x1 , X (t 2 ) x2 ,...... X (t n ) xn
совместная вероятность события,
определяющая многомерную ФРВ
Плотность распределения вероятностей случайного процесса ПРВ
(дифференциальный закон)
n F ( x1 , x2 ,....xn , t1 , t 2 ,.....t n )
( x1 , x2 ,....xn , t1 , t 2 ,....t n )
x1 x2 ...... xn
9
10.
Свойства ФРВ (одномерной)1.
0 F ( x, t ) 1
x
2.
F ( x, t ) ( x, t )dx
Свойства ПРВ (одномерной)
1.
( x, t ) 0
2.
( x, t )dx 1
10
11.
ПРВФРВ
11
12.
Классификация случайных процессов1.Стационарные и нестационарные случайные процессы.
Случайный процесс, у которого вероятностные характеристики не изменяются во времени,
называется стационарным.
Случайный процесс, у которого вероятностные характеристики изменяются во времени,
называется нестационарным.
Стационарные процессы разделяются на стационарные в узком смысле, когда не изменяются во
времени законы распределения вероятностей, и в широком смысле, когда от времени не зависят
только числовые характеристики: математическое ожидание, дисперсия, корреляционная
функция (зависит только от
).
Стационарные случайные процессы в узком смысле стационарны и в широком смысле, но не
наоборот.
Эргодический случайный процесс относится к стационарным, у которого каждая достаточно
продолжительная реализация может характеризовать весь случайный процесс.
Эргодический случайный процесс
12
13.
1314.
Продолжение классификации случайных процессов2. Классификация по характеру зависимости текущего значения случайного процесса от
предыдущих значений:
2а) абсолютно случайные, т.е. непредсказуемые (например, белый шум), характеризуются
одномерной ПРВ, имеют корреляционную функцию в виде дельта-функции и
равномерную спектральную плотность мощности (СПМ).
X (t )
t
S x ( )
Rx ( )
N0
0
14
15.
2б. Марковский случайный процесс: текущие значения случайного процесса зависяттолько от одного предыдущего значения, характеризуется одномерной ПРВ и ПРВ
перехода из одного состояния в другое.
2в. Немарковские случайные процессы: текущие значения случайного процесса
зависят от двух и более предыдущих значений.
3. Классификация случайных процессов по виду закона распределения плотности
вероятностей:
3а. Гауссовские и негауссовские случайные процессы.
4. Классификация случайных процессов по виду корреляционной функции.
Закон Гаусса (ПРВ)
x(t ) m1 (t )
( x, t )
exp
2
2
2
(
t
)
2 x (t )
x
1
2
x1
F ( x, t ) ( x, t )dx
Многомерная ПРВ гауссовского процесса определяется одномерной ПРВ и корреляционной
функцией. Некоррелированные сечения гауссовского процесса являются независимыми
случайными величинами.
15
16.
1617.
Лекция №3Моментные функции -
это среднее значение случайного процесса порядка
статистическим путем.
mk (t ) x k (t ) ( x, t )dx
m1 (t ) M [ x(t )] x(t ) ( x, t )dx
к, полученное
Усреднение по
множеству реализаций
к 1
0
x(t ) M [ x(t )] x(t )
2
D[ x(t )] x(t ) ( x, t )dx
0
к 2
T
Для стационарных и
эргодических случайных
процессов
M (x) D(x) (x )
1
M ( x) im x(t )dt
T0
T
Усреднение по времени
T
1 02
D( x) im x (t )dt
T0
T
17
18.
Среднее значение случайного процесса19.
mkk
x
k 1
k 3
k 4
- коэффициенты, характеризующие вид функции ПРВ
- коэффициент вариации, является мерой случайности
(стационарного случайного процесса)
- коэффициент характеризует степень несимметричности
функции ПРВ
- характеризует степень остроконечности функции ПРВ
С 2, C 2 - обобщенный гауссовский закон,
С 2 - гауссовский закон
(x )
С 2
С
С 2
x
m4
x4
Среднеквадратическое
отклонение
x D[x]
19
20.
Корреляционная функция случайного процессаКорреляционная функция устанавливает взаимосвязь между двумя
значениями случайного процесса, соответствующими двум моментам
времени.
R x (t1 , t 2 ) x(t1 ) x(t 2 ) ( x1 , x 2 ; t1 , t 2 )dx1 dx 2
Для стационарных случайных процессов
(t 2 t1 )
R x ( ) x1 (t ) x 2 (t ) ( x1 , x 2 , )dx1 dx 2
Нормированная функция корреляции
R x (0) D ( x)
2
x
Rx ( )
rx ( )
Rx (0)
к rx ( )d интервал
корреляции
0
rx ( )
Rx ( )
1. R x ( ) Rx ( )
2
2. R x ( ) R (0) x
3. imR x ( ) 0
20
Свойства
21.
Нормированная функция корреляции стационарногослучайного процесса
интервал корреляции
к rx ( )d
0
1
к
Rx ( )d
Rx (0) 0
22.
Спектральная плотность мощности (СПМ)СПМ – энергетическая характеристика стационарного случайного процесса.
СПМ – это зависимость S x ( ) средней мощности случайного процесса от полосы
частот шириной в 1 Гц.
СПМ однозначно связана с корреляционной функцией преобразованиями
Винера-Хинчина.
Преобразования Винера-Хинчина:
1
j
R x ( )
S
(
)
e
d
x
2
S x ( ) R x ( ) e j d
Для четных функций и положительных значений аргументов:
S x ( ) 2 Rx ( ) cos( )d
Rx ( )
1
S ( ) cos( )d
x
0
0
Эффективная полоса частот случайного сигнала
1
эф
S x ( )d
S x (0) 0
23.
Примеры случайных процессовt
эф
к
Rx (0)
S x (0)
23
24.
Спектральная плотность мощности речевого сигналаформанты
2 (1Гц )
Частота
основного
тона
2 (1Гц )
25.
МоделиS x ( )
речевого сигнала
Полиномы Баттерворта
2 x2
sin( / 2k )
S x ( )
/ 2k
x [1 ( / x ) 2 k ]
эф
26.
Лекция №4Дискретное представление случайных процессов
- это преобразование функции непрерывного времени в функцию дискретного времени.
S (t ) может быть точно или приближенно представлен в виде линейного
Случайный сигнал
функционального ряда в виде оценки S (t )
:
Nk
S (t ) S k Wk (t )
k 0
S k - весовые коэффициенты
Wk (t ) - базисные функции
S (t ) S (t )
Nk
N k конечно
S (t ) S (t ) (t ) - погрешность восстановления
T
S k S (t ) Vk (t )dt
Vk (t ) - весовые функции
0
26
27.
Классификация дискретных представлений1. Обобщенное дискретное представление в виде разложения в обобщенный ряд
Фурье с последующей аппроксимацией (восстановление непрерывного сигнала).
Vk (t ) Wk (t )
2. Дискретное представление в виде отдельных отсчетов (выборок) S (t k ) с
последующей интерполяцией (восстановление непрерывного сигнала). Этот вид
дискретного представления лежит в основе импульсно-кодовой модуляции ИКМ.
Vk (t ) (t t k )
3. Разностное дискретное представление в виде конечных разностей с
последующей интерполяцией (лежит в основе дифференциально-импульсно-кодовой
модуляции ДИКМ).
Весовая функция Vk (t ) есть линейная комбинация отсчетов
S (t k ) .
27
28.
Обобщенные дискретные представления ортогональным рядом (ОДП)(разложение сигналов в обобщенный ряд Фурье)
Система ортогональных функций:
С
0 Wi (t ) Wk (t )dt 0
T
при
при
k i
k i
Т
2
W
k (t )dt 0
Функции не равны тождественно нулю.
0
T
2
W
k (t )dt 1
Система ортонормированных
функций
0
В качестве системы ортонормированных функций используются различные полиномы:
Лежандра, Чебышева, Уолша, Хаара, тригонометрические и др.
28
29.
Пример разложения сигнала в ряд Фурье с помощью тригонометрических функций30.
Пример формирования координатКоординаты
t
Временной промежуток
для передачи координат
других сигналов
00 1 0 0 11 00
31.
Структурная схема системы передачи сигналов с ОДПТ
х
S0
S0
х
Л. С.
0
W0 (t )
Т
х
S (t )
W0 (t )
S1
MUX
S1
DEMUX
х
0
W1 (t )
W1 (t )
Т
х
Sk
S (t )
Sk
х
0
Wk (t )
Wk (t )
31
32.
Лекция №5Текущая погрешность
(t ) (t ) (t )
2
(t )
2
2
Приведенная дисперсия
текущей погрешности
32
33.
Дискретизация по выборкам и интерполяцияВ качестве координат используются мгновенные значения сигнала, взятые в определенные
моменты времени. Представление непрерывного сигнала в виде отдельных отсчетов
называется процессом дискретизации.
k
S (t k ) S (kT0 ) S (t ) (t kT0 )
k
T0 - период опроса
T0 const - регулярная дискретизация
T0 const - нерегулярная дискретизация
33
34.
На приемной стороне осуществляется обратный процесс восстановления непрерывного сигналаиз отдельных выборок (интерполяция).
Nk
S (t ) S (kT0 ) Wи (t kT0 )
Wи (t kT0 ) - интерполирующий полином
k 0
S (t )
Ступенчатая
интерполяция
Квадратичная
интерполяция
t з 2T0
t
T0
S (t )
Линейная
интерполяция
T0
t
t з T0
T0
t
34
35.
Теорема КотельниковаЛюбая непрерывная функция может быть восстановлена точно по своим
незашумленным выборкам только при следующих условиях:
1) процесс восстановления стремится к бесконечности T
2) дискретизируемая функция должна иметь ограниченный спектр [0 Fс ]
3) частота опроса должна быть равна
F0 2Fc ( Fс - граничная частота сигнала)
4) интерполятором должен быть идеальный фильтр нижних частот ФНЧ:
Wи (t kT0 )
sin[ 2 Fc (t kT0 )]
2 Fc (t kT0 )
Теорема Котельникова определяет потенциальные возможности дискретизации по выборкам,
которые достижимы только теоретически:
1. Идеальные ФНЧ физически не реализуемы.
2. Бесконечное время наблюдения (восстановления) невозможно в случае практической
реализации.
Следовательно, в реальных условиях всегда имеет место интерполяционная
погрешность
и2 , которая является функцией СПМ дискретизируемого сигнала,
частоты опроса и метода интерполяции.
35
36.
Расчет интерполяционной погрешностиНепрерывные сигналы, представленные выборками, должны восстанавливаться с заданной
интерполяционной погрешностью. Расчет и и определение F0 являются важными задачами,
2
возникающими при проектировании и эксплуатации цифровых систем передачи информации.
При использовании частотной методики процесс интерполяции трактуется как процесс фильтрации
спектра исходной функции S (t ) из спектра последовательности выборок S (kT0 ) .
Исходные данные: S ( )
СПМ исходного сигнала
S (t ) и период опроса T0
S ( )
СПМ
S * ( )
есть сумма СПМ сигнала
смещенных составляющих
выборок S (kT0 )
S ( ) и СПМ
S см ( )
2 Fc c
1
1
1
S ( )
S
(
k
)
[
S
(
)
S
(
k
)]
[ S ( ) S см ( )]
0
0
T0 k
T0
T0
k
*
k 0
36
37.
Интерполяция идеальным ФНЧS (t )
S * ( )
T0
1
F0
2 F0 0
2 Fc c
искажения
37
38.
Выделяют два случая фильтрации исходного сигнала в зависимости от ширины СПМ ипериода опроса:
1. СПМ сигнала ограничена F0 2 Fc
( спектры не перекрываются и с помощью
идеального ФНЧ выделяется сигнал без искажений.
2. СПМ сигнала не ограничена или не соблюдается условие
F0 2Fc
(спектры
перекрываются и сигнал выделяется с искажением, т.е. интерполяционной
погрешностью
и2 ).
Интерполяционная погрешность состоит из двух статистически независимых
составляющих: динамической
ид2 , возникающей из-за того, что часть СПМ
сигнала S ( ) не пропускается через интерполяционных фильтр;
помеховой ип , возникающей из-за того, что в полосу частот пропускания
2
интерполирующего фильтра попадает часть смещенных СПМ S см ( ) .
2
и
2
ид
2
ип
2 дисперсия сигнала
2
и2 и2
приведенная дисперсия
интерполяционной погрешности
38
39.
12
2
ид
S ( ) 1 Wи ( j ) d
2
2
ип
1
2
S см ( ) Wи ( j ) d
2
Wи ( j )
комплексный коэффициент передачи
интерполирующего фильтра
Коэффициент фильтрации интерполирующего фильтра по отношению к внешним помехам
приблизительно равен единице.
39
40.
Лекция №6Дискретные разностные представления
Алгоритм формирования дискретных разностных представлений:
1. Формирование мгновенных отсчетов сигнала.
2. Предсказание очередного N го отсчета S пр (t k ) на основании
предыдущих ( N 1) отсчетов с учетом вероятностных свойств сигнала.
3. Сравнение предсказанного значения S пр (t k ) с действительным значением
текущего отсчета S (t k ) и формирование разности предсказания N го
порядка.
( N ) S (t k ) S пр (t k )
В частном случае разностное представление первого порядка имеет вид:
S пр (t k ) S (t k 1 )
В линию связи посылается
(N)
(1) S (t k ) S (t k 1 )
разность. В результате уменьшается динамический диапазон сигнала
(сообщения), повышается помехоустойчивость, устраняется информационная избыточность сигнала, за
счет временного уплотнения повышается пропускная способность каналов связи. После дискретизации
сигнала по времени и формирования разности
(1)
осуществляется процесс квантования по уровню и
кодирование.
40
41.
Дельта-модуляцияПри увеличении частоты опроса разность между соседними отсчетами может быть
достаточно малой и квантоваться на два уровня:
1) если
( N ) S (tk ) 0 , то в линию связи передается единица,
2) если
( N ) S (tk ) 0 , то в линию связи передается ноль.
Структурная схема передающего и приемного устройств систем передачи сигналов с
дискретным разностным представлением
S (t )
дискретизатор
(1)
Прогнозирующее
устройство
Линия задержки на
(1)
T0
S (t к )
Канал связи
к интерполятору
Прогнозирующее устройство
Линия задержки на
T0
41
42.
На передающей сторонеS (t ) S (t k )
дискретизация
S (t k ) ( N ) S пр (t k )
S пр (t k ) S (t k 1 )
На приемной стороне
S (t k ) ( N ) S пр (t k )
S пр (t k ) S (t k 1 )
S (t k ) S (t )
интерполяция
42
43.
Дискретизация, квантование, кодированиеИмпульсно-кодовая
модуляция ИКМ
S (tk )
Уровни
квантования
1) дискретизация
икм
256уровней
3
2
1
0
2) квантование
3) кодирование
t
кодирование
икм дикм
00000110
(N )
Дифференциальноимпульсно-кодовая
модуляция ДИКМ
1) дискретизация
3
Уровни
квантования
Динамические диапазоны
дикм
2
1
0
16уровней
t
2) вычисление конечных разностей
3) квантование
4) кодирование
кодирование
0011
43
44.
Лекция №7Теория модулированных сигналов
Модуляция – управление параметрами несущего сигнала по закону передаваемого
сообщения.
Назначение модуляции:
1) преобразование первичного сигнала в высокочастотное колебание для передачи
информации по линии связи;
2) устранение информационной избыточности в первичном сигнале.
Классификация видов модуляции
сообщение
несущий сигнал
шумоподобные
непрерывные
дискретные
гармонические
импульсные
аналоговые виды
АМ,ЧМ,ФМ
аналоговые импульсные
АИМ,ШИМ,ФИМ,ЧИМ
дискретные виды
АМн,ЧМн,ФМн,ОФМн
цифровые виды
ИКМ,ДИКМ
45.
АМ – амплитудная модуляция (амплитуда синусоидального сигнала-переносчика изменяется по законуизменения амплитуды непрерывного сообщения).
ЧМ – частотная модуляция (частота синусоидального сигнала-переносчика изменяется по закону
изменения амплитуды непрерывного сообщения).
ФМ – фазовая модуляция (фаза синусоидального сигнала изменяется по закону изменения амплитуды
непрерывного сообщения).
АМн – амплитудная манипуляция (амплитуда синусоидального сигнала-переносчика изменяется по закону
изменения амплитуды дискретного сообщения).
ЧМн – частотная манипуляция (частота синусоидального сигнала-переносчика изменяется по закону
изменения амплитуды дискретного сообщения).
ФМн- фазовая манипуляция (фаза синусоидального сигнала-переносчика по закону изменения амплитуды
дискретного сообщения).
ОФМн – относительно фазовая манипуляция (фаза синусоидального сигнала-переносчика по закону
изменения амплитуды дискретного сообщения).
АИМ – амплитудно- импульсная модуляция (амплитуда импульса импульсного сигнала-переносчика
изменяется по закону изменения амплитуды непрерывного сообщения).
ШИМ – широтно-импульсная модуляция (длительность импульса импульсного сигнала-переносчика
изменяется по закону изменения амплитуды непрерывного сообщения).
ФИМ – фазо-импульсная модуляция ( фаза импульса импульсного сигнала-переносчика изменяется по
закону амплитуды непрерывного сообщения).
ЧИМ – частотно-импульсная модуляция (частота импульсов импульсного сигнала-переносчика изменяется
по закону амплитуды непрерывного сообщения).
ИКМ – импульсно-кодовая модуляция, ДИКМ – дифференциально-импульсно-кодовая модуляция,
ДМ – дельта-модуляция.
45
46.
(t )Дискретная модуляция (манипуляция)
47.
Модулятор ФМн(t )
S ( , t )
X
S (t )
f эф
1
эл
СПМ –бесконечна
При 180 0
несущая подавлена
101001
47
48.
Демодулятор ФМнS(t)
ФД
S ( , t )
ФНЧ
(t )
УмЧ
ФВ
Ф2
ДЧ
Ф1
ВОК
48
49.
Манипулятор ОФМн(t )
ОФМн
2
ФМ
Л.З.
S (t )
Демодулятор ОФМн
ОФМн
ВОК
ФНЧ
2
(t )
Л.З.
49
50.
Частотный манипуляторАвтогенератор
Кв1
Выход
Кл
Кв2
Частотный демодулятор огибающей
Ф1
АД1
+
В
1
РУ
_
Ф2
0
АД2
f эф
2
эл
50
51.
Амплитудный манипулятор(t )
Кл
S ( , t )
АМн
Ген
S (t )
+
Кл
_
t
Детектор огибающей
(t )
t
51
52.
Детектор огибающейf эф
1
эл
52
53.
Лекция №8Амплитудно-импульсно модулированный сигнал (АИМ)
Т0
эл
53
54.
U АИМ U 0 U m cos c t U 0 (1 M АИМ cos c t )M АИМ U m /U 0
(t ) U m cos( c t )
S ( , t ) (1 M АИМ cos c t ) S и (t t k )
k 1
U0
- амплитуда импульса
Um
- амплитуда первичного сигнала
с
- круговая частота первичного сигнала
M АИМ 1
- индекс модуляции АИМ
S и (t t k )
- функция, описывающая форму импульса
54
55.
Спектр АИМ - сигнала для(t ) U m cos( c t )
S ( )
0
0 c
c
2 0
3 0
2 0 c 3 0 c
0 c
2 0 c
3 0 c
f эф
1
им п
55
56.
Модулятор АИМU АИМ
(t )
t
АИМ сигнал
Демодулятор АИМ
АИМ-сигнал
ФНЧ
(t )
интерполятор
56
57.
Аналого-импульсные виды модуляции57
58.
Широтно-импульсная модуляция (ШИМ)изменяется по закону
Ширина импульса
(t ) U m sin .c t
0
0 sin c t
0
- среднее значение ширины (длительности) импульса
-- девиация ширины импульса
c
f эф
S ( )
-- круговая частота первичного сигнала
1
им п
- эффективная полоса частот ШИМ-сигнала
0 l c
0 l c
к 0 l c
c
0
2 0
3 0
58
59.
Модулятор ШИМ (мультивибратор Роера МР)(t )
Модулятор
ШИМ
T0
МР
t
Демодулятор ШИМ
ШИМ-сигнал
ФНЧ
(t )
59
60.
Фазо-импульсная модуляция (ФИМ)Аналитическое выражение ФИМ-сигнала
S ( , t ) U 0 S и (t k д k )
k 1
- амплитуда измерительного импульса
U0
- функция огибающей измерительного импульса
S и (t )
д Т0 / 2
T0
- период опроса
к (t k )
f эф
- девиация временного положения импульса
- значение нормированного сообщения в момент опроса
1
им п
- эффективная полоса частот ФИМ-сигнала
60
tk
61.
(t )t
tk
(t )
Модулятор ФИМ-сигнала
T0
t k T0
tk
ДУ
Мод.
ШИМ
дифференцирующее
устройство
tk
ОВ
Однополупериодный
выпрямитель
tk
Од
Одновибратор
восстанавливает
форму импульса
ФИМсигнал
Демодулятор ФИМ-сигнала
ФИМсигнал
РУ
ФНЧ
(t )
61
62.
АИМ-ЧМи
АИМ-ЧМ
ФИМ-АМ
f эф 2 f эфАИМ ( М 1) 2
1
им п
( М 1)
ФИМ-АМ
f эф 2 f эфФИМ
2
им п
62
63.
Лекция №9Аналоговые непрерывные системы модуляции
Амплитудная модуляция (АМ)
По закону передаваемого сообщения
(t ) изменяется амплитуда
несущего сигнала S (t ) U 0 cos( 0 t 0 ) .
АМ-сигнал:
S АМ (t ) U 0 [1 M АМ (t )] cos( 0 t 0 )
М АМ
Um
U0
индекс АМ модуляции
Выражение АМ-сигнала для
С учетом формулы
(t ) U m sin c t
М АМ 1
при
0 0
cos cos (1 / 2) cos( ) (1 / 2) cos( )
S ( , t ) U 0 [cos 0 t (1 / 2) M АМ cos( 0 c )t (1 / 2) M АМ cos( 0 c )t ]
f эф 2 Fc
для
f АМ 2 Fc
(t ) U m sin c t
Fc - ширина полосы частот (t )
63
64.
(t ) U m sin c t(t )
S ( )
0 c
c
S (t )
S ( )
0
0 c
S ( , t )
2 Fc
0
65.
(t )ПФ
Спектр
S ( )
Формирование АМ-сигнала (модулятор)
0 c
S ( , t )
2 0
2 c
S (t )
0
c
(t )
0 c
S ( , t )
I Вых
S (t )
i a0 a1u a2u 2 ...
u U 0 cos 0 t U m cos c t
Вх U
65
66.
Балансная модуляцияS ( )
2 Fc
f АМ 2 Fc
Однополосная амплитудная модуляция
S ( )
2 Fc
2 Fc
66
67.
Демодулятор АМ-сигналовS ( , t )
ФНЧ
(t )
S (t )
(t )
S ( , t )
S ( )
2 0 c
0 c
S (t )
2 0
c
2( 0 c )
0
2 c
0 c
2 0 c
2( 0 c )
67
68.
Угловая модуляция (УМ)SУМ U 0 cos[ 0 t ( , t ) 0 ]
( , t ) M ФМ (t )
ФМ
- индекс ФМ модуляции
M ФМ 1 (максимальное
отклонение фазы)
t
( , t ) д (t )dt
ЧМ
0
(t ) cos c t
д
M ЧМ
с
0 c
МЧМ 1
0 c
0 3 с
0 3 с
0
0 2 с
f эфУМ 2Fс (М УМ 1)
д
М УМ 1
М УМ 1
- девиация частоты
- индекс ЧМ
модуляции
(максимальное
отклонение
фазы)
0 2 с
f эфЧМ 2 Fд
f эфУМ 2 Fc
f эфФМ 2М ФМ Fc
68
69.
Изменения частоты несущего сигнала при фазовой и частотной модуляциях(t ) at
S ( , t )
0 M ФМ a
1 const
(t ) at b
0 M ФМ а
2 const
t
t
( , t ) M ФМ (t )
ФМ
d ( , t )
M ФМ a
dt
S ( , t )
t
t
ЧМ
( , t ) д (t )dt
0
0 д аt
0 д ( at b)
d ( , t )
д (t )
dt
69
70.
Мгновенный спектрS ( )
2 2 Fc
N0
Pш N 0 f эф
f эфУМ 2 Fc
( f эф1 / f эф2 )
2 Fc ( M 1)
M 1
2Fc
Система ФАПЧ
S ( , t )
ФНЧ
ЧМГ
0 2 Fc
ФНЧ
(t )
0 Fc
70
71.
Модулятор ЧМ(t )
Демодуляция ЧМ
Колебательный
контур
Детектор
огибающей
t
71
t
72.
Лекция №10Основы теории кодирования
Преобразование дискретных сообщений в сигнал осуществляется с помощью двух операций:
кодирование и модуляция.
Кодирование – преобразование дискретных сообщений в последовательность некоторых символов.
Каждому элементу сообщения присваивается определенная совокупность кодовых символов,
которая называется кодовой комбинацией.
Правило, по которому устанавливается однозначное соответствие между сообщением и кодовой
комбинацией, называется кодом.
Код известен на передающей и приемной сторонах.
Для этого существуют специальные кодовые таблицы, в которых размещают алфавит кодирования.
Классификация кодов
1) двухпозиционные
и многопозиционные
а 2
а - основание кода
2) равномерные
а 2
n const
и неравномерные
n var
n - длина кодовой комбинации
3) по назначению: первичные, статистические, корректирующие
72
73.
Основные параметры кодова0 2 0 а1 21 а 2 2 2 а3 2 3 а 4 2 4 а5 2 5 а6 2 6 а7 2 7
1)
а
2)
n
n k r s
информационные, проверочные, служебные
. Это число ненулевых элементов в комбинации,
3) вес кодовой комбинации
для двоичных кодов – число единиц в комбинации.
v1 01110
1 3
v2 01010
2 2
4) кодовое расстояние между двумя комбинациями
d . Это количество
элементов, в которых одна комбинация отличается от другой. Для двоичных кодов – это
вес суммы по модулю 2.
d (vi , v j ) (vi v j ) mod 2
(01101 00110) mod 2 01011( 3), d (vi , v j ) 3
+
=
01101
00110
01011
Минимальное кодовое расстояние (расстояние Хемминга) по множеству
комбинаций характеризует все множество кодовых комбинаций.
d min 1
- простые коды,
d min 2
- корректирующие коды
73
74.
Выполнение алгебраических операций над кодовыми комбинациями10011001 1 x 7 0 x 6 0 x 5 1 x 4 1 x 3 0 x 2 0 x1 1 x 0
A( x) x 7 x 4 x 3 1
Все операции выполняются по законам двоичной алгебры.
( x i x i ) mod 2 0
xn 1
7
4
3
[ A( x) B( x)] mod 2 [ A( x) x x x 1
B( x) x 6 x 4 1 ] mod 2
+
x7 x4 x3 1 x6 x4 1 x7 x6 x3
A( x) B( x) ( x 7 x 4 x 3 1)( x 6 x 4 1) x13 x10 x 9 x 6 x11 x 8 x 7 x 4 x 7 x 4 x 3 1
x6 x5 x 2 x
13-8=5
---
1
---
-
-
0 27 1 26 1 25 0 24 0 23 1 22 1 21 0 20 01100110
74
75.
Первичные (линейные) кодыПервичные коды (ПК) служат для согласования сформированной последовательности двоичных
сигналов с параметрами линии связи и обеспечения определенной синхронизации между передающей
и приемной сторонами. Первичный сигнал должен содержать тактовую частоту,
ПК должен иметь узкую полосу частот, не должен содержать постоянную составляющую (длинных
нулевых посылок) из-за присутствия в тракте передачи согласующих трансформаторов и усилителей,
не пропускающих низкочастотные составляющие (что вызывает искажения импульсов). Основная
часть энергии линейного сигнала должна быть сосредоточена в среднем диапазоне частот. От выбора
линейного кода зависят длина регенерационного участка и гарантированное выделение тактовой
частоты, качество передачи и возможность совместной работы различных систем передачи.
Искажения сигнала за счет
несоответствия полосе частот
л.св.
75
76.
12
1
2
1
2
1
2
Код
Манчестера
1 10
0 01
Квазитроичный
1b2b
Уменьшается вероятность длительных последовательностей единиц и нулей .
76
77.
Корректирующие коды (КК)КК – служат для повышения помехоустойчивости и достоверности передачи
информации в условиях помех. Это достигается введением в простые коды
избыточных разрядов.
Избыточные символы формируются по определенным правилам и называются
проверочными или контрольными.
d (vk ) 2
N0 N р
N0
- общее число комбинаций, делится на две части:
разрешенные
d 1
d 2 1
N р и неразрешенные
- кратность обнаруживаемых
ошибок
- кратность исправляемых
ошибок
1
d 2
1
d 3
77
78.
Классификация корректирующих кодовБлочные
Непрерывные
Разделимые
Неразделимые
Древовидный
Линейные
Нелинейные
Код с проверкой на четность (линейный, разделимый, блочный)
Обнаруживает все ошибки нечетной кратности (четной кратности не
обнаруживает)
k 01010
k 01011
r 0
r 1
78
79.
Код с постоянным весом (блочный, неразделимый)const
N 0 2 5 32
N р Сn
N р С53 10
N з 32 10 22
Код обнаруживается все ошибки нечетной кратности и часть ошибок четной кратности.
Среди блочных линейных кодов самые перспективные - цикличные коды.
79
80.
Признаком принадлежности какой-либо комбинации к подмножеству разрешенных комбинацийявляется деление ее без остатка на некоторый многочлен g (x ) степени r n k , который
называется образующим. Вид многочлена определяет схему и порядок работы кодера и
декодера.
g ( x) x 3 x 2 1
r 3
A( x) x 3 x 2 x
x
Пример:
x x x
5
5
4
x3 x
3
x4 x3
A( x) x 6 x 5 x 4 x
x x x
4
A( x) x x x
6
( x 3 x 2 1)
(x6 x5 x4 )
6
3
3
x
R( x) x
На приемной стороне комбинация A(x ) будет делиться без
остатка на образующий многочлен g (x ) .
80
81.
Статистические кодыСлужат для уменьшения информационной избыточности в передаваемой
цифровой последовательности.
Количество информации определяется вероятностью появления сообщения
(буквы).
Каждая буква появляется с разной вероятностью и несет разное количество
информации.
Для повышения скорости передачи информации каждое сообщение должно
нести одно и то же количество информации. Для этого требуется
перекодирование сообщений, чтобы все сообщения были равновероятными.
Для этого часто встречающиеся буквы должны составлять короткие кодовые
комбинации. Реже встречающиеся буквы длинные кодовые комбинации.
Главное, чтобы короткие комбинации не совпадали с началом длинных
комбинаций.
Статистическое кодирование предложил К. Шеннон, правило кодирования
предложил Р. Фено. Статистические коды называются кодами ФеноШеннона.
81
82.
Лекция №11Модели сообщений, сигналов-переносчиков, помех
Сообщения
Импульсные
Дискретные
Непрерывные
Сигналыпереносчики
Синусоидальные
Импульсные
Шумоподобные
82
83.
Принцип кодового уплотнения в системе с КРКФункции Уолша
Амп.
База шумоподобного сигнала ШПС
64 ортогональных комбинаций
В
Т
1
t
1
2
t
3
t
4
t
Т - период ортогональности
83
84.
S ( , t ) U m cos[ 0t ( , t ) 0 ]Известны все параметры
Неизвестна 0
Неизвестны 0 , U m
Неизвестны 0 , U m , 0
84
85.
Модели помехПомехи
1. Флуктуационные
1. Внутренние
1. Аддитивные
2. Импульсные
2. Внешние
2. Мультипликативные
3. Синусоидальные
85
86.
Виды погрешностейПогрешности
1. Методические
1. Нормальные
2. Аппаратурные
2. Аномальные
3. Помеховые
86
87.
Показатели качестваНепрерывных
Дискретных
сигналов
сигналов
Приведенная дисперсия
текущей погрешности
Вероятность
ошибки
2 f ( Pс / Рш )
Рош f ( Рс / Рш )
87
88.
Лекция №12Элементы количественной теории информации
Свойства количественной меры информации
1. Количество информации должно быть аддитивной мерой.
2. Количество информации в сообщении о достоверном событии равно нулю.
3. Количество информации не должно зависеть от качественного содержания.
i(a) k log 2 P(a)
а – дискретное
сообщение
k 1
1
i(a) log 2 [
]
P(a)
Энтропия дискретного источника сообщений
1
Н ( А) М [i(a)] М [log 2 (
)]
P(a)
K
H ( A) P(ai ) log 2 [
i 1
1
]
P(ai )
1
i(a) log 2 ( ) 1бит
0,5
88
89.
Свойства энтропии1. Энтропия неотрицательна
2. Энтропия аддитивна
3.
H ( A) log 2 K
32
1
1
H ( A) log 2 (
) 5бит
1 / 32
1 32
Избыточность источника информации
log 2 K H ( A)
log 2 K
89
90.
Взаимная информацияСовместная энтропия
H ( A / B) M {log 2
Условная энтропия
n
1
H ( A, B) M {log 2
}
P(a k , bi )
m
H ( A / B) P(ak / bi ) log 2 [
k 1 i 1
1
P(a k / bi )
}
1
]
P(ak / bi
P(a, b) P(a) P(b / a) P(b) P(a / b)
H ( A, B) H ( A) H ( B / A) H ( B) H ( A / B)
Теорема
умножения
вероятностей
Свойства условной энтропии
0 H ( A / B) H ( A)
H ( A / B) H ( A)
90
91.
Взаимная информацияP(ak / bi )
1
1
I ( A, B) H ( A) H ( A / B) M [log 2
] M [log 2
] M [log 2
]
P ( ak )
P(ak / bi )
P ( ak )
P (ak , bi )
I ( A / B) M [log 2
]
P (ak ) P (bi )
Выражение
симметрии взаимной
информации
Свойства взаимной информации
1.
I ( A, B ) 0
2.
I ( A, B) I ( B, A)
3.
I ( A, B ) H ( A)
4.
I ( A, B ) H ( B )
5.
I ( A, A) H ( A)
I ( A, B) H ( A) H ( A / B) H ( B) H ( B / A)
Потери информации
H ( A) I ( A, B) H ( A / B)
91
92.
Скорость передачи информацииI ( A, B )
I ( A, B )
T
Производительность источника сообщений
H ( A)
H ( A)
T
I ( A, B)
H ( A)
H * A B
H ( B)
H * B A
92
93.
Эффективное кодированиеИсточник
дискретных
сообщений
Кодирующее
устройство
I ( A, B)
H ( A)
H ( B)
Для эффективного кодирования (без учета помех) необходимо:
I ( A, B) H ( A)
Из свойства взаимной информации имеем неравенство:
I ( A, B) H ( B)
Отсюда,
Т с / Т к H ( A) / H ( B)
H ( A) H ( B)
H ( B) / Т к H ( A) / Т с
H ( A) log 2 256 8бит
Т с / Т к 8 /1
H ( B) log 2 2 1бит
94.
Дискретизация, квантование, кодированиеИмпульснокодовая
модуляция ИКМ
S (t k )
Уровни
квантования
икм
256 уровней
1)дискретизация
2)квантование
3
2
1
0
3)кодирование
t
кодирование
Динамические диапазоны
икм
00000110
(N )
дикм
Дифференциальноимпульсно-кодовая
модуляция ДИКМ
1)дискретизация
Уровни
квантования
3
дикм
0
t
2
1
16 уровней
2)вычисление конечных
разностей
3)квантование
4)кодирование
кодирование
0011
94
95.
Теоремы ШеннонаПервая теорема: если пропускная способность канала больше или равна
производительности источника дискретных сигналов, то имеются кодирующие и
декодирующие устройства, которые обеспечивают передачу информацию по
каналу связи без ошибок, в противном случае передача без ошибок невозможна.
Простое кодирование.
Вторая теорема: среди кодов и кодирующих устройств, обеспечивающих
выполнение условий первой теоремы, имеются коды, которые обеспечивают
максимальную производительность источника дискретных сигналов.
Статистическое кодирование.
96.
Лекция № 13Пропускная способность дискретного канала
При передаче каждого символа в среднем по каналу проходит следующее
количество информации:
I ( A, B) H ( A) H ( A / B) H ( B) H ( B / A)
Максимальное количество информации, взятое по всем возможным
источникам, характеризует канал и называется пропускной способностью
канала (в расчете на символ):
Ссим max I ( A, B)
С max I ( A, B)
Р( А)
Р( А)
С VCсим
бит/ с
Пример:
Дискретный канал (симметричный без памяти): может передать каждый
символ с вероятностью ошибки Рош и без ошибки (1 Р )
ош
96
97.
Условная вероятность того, что вместо переданноголюбой другой из ансамбля K :
Р(b j / ai ) 1 Pош , i j
Р(b j / ai ) Pош /( K 1), i j
Допустим:
К 3
i-го символа может быть принят
Передали 9 раз букву a , приняли 3 раза а, 3 раза b, 3
раза с.
a
b
c
P (b / a ) 1 / 3
Рош 2 / 3
a
Ссим max[ H ( B) H ( B / A)]
H ( B) log 2 K *
1
K 1
1
H [ B / A] M [log 2
] Рош log 2
(1 Рош ) log 2
P(b j / ai )
Pош
(1 Pош )
K
1
1
Cсим log 2 K Рош log 2
(1 Рош ) log 2
Pош
(1 Pош )
97
98.
K 2С V [1 Pош log 2 Pош (1 Рош ) log 2 (1 Pош )]
C /V
1
Pош
1
1/2
Pош 1 / 2
С 0
инверсия
98
99.
Информация в непрерывных сигналах( )
к
Р( к к ) ( к )
log 2 1/ Р( к к ) log 2
H ( ) lim M [log 2
0
1
( к )
1
1
1
1
1
1
1
] lim M [log 2
log 2
] lim M [log 2
] lim M [log 2
] M [log 2
] lim M [log 2
]
( )
( )
( )
( )
0
0
0
0
99
100.
Лекция №14Дифференциальная энтропия
h( ) M [log 2
1
1
] ( )[log 2
]d
( )
( )
Количество взаимной информации в непрерывном сообщении
I ( , ) lim M [log 2
( , )
( , )
] M [log 2
]
( ) ( )
( ) ( )
0
0
На основании теоремы умножения вероятностей:
I ( , ) h ( ) h ( / ) h ( ) h ( / )
100
101.
Дифференциальная энтропия гауссовской случайной величины( x a) 2
( x)
exp[
]
2
2 x
2 x2
1
(x)
h( x) log 2 2 e
2
x
Максимальна, не зависит
от м.о., растет
пропорционально
дисперсии
x
101
102.
Пропускная способность непрерывного канала(t )
1
T0
2 Fc
- период
опроса
t
Cот max I ( , ) max[ h( ) h( / )]
( )
( )
Пропускная способность непрерывного канала с шириной полосы частот F
может быть определена в виде суммы значений Сот , взятой по всем отсчетам
за единицу времени 1 сек.
С 2 FCот
(t k ) - сообщение на выходе канала
102
103.
Непрерывный канал без памяти с аддитивным белым гауссовским шумом.(tk )
- входной сигнал с мощностью Рс в канале шириной полосы частот F
с помехой мощностью Рш .
( n)
( / )
n
n
n
t
t
t
103
104.
Cот max I ( , ) max[ h( ) h( / )]( )
( )
max h( ) log 2 2 e( Pс Рш )
h( x) log 2 2 e x2
h( / ) log 2 2 ePш
Условная энтропия:
Сот log 2 2 e( Pс Рш ) log 2
Pс Рш
1
2 ePш log 2 (
)
2
Рш
С 2 FCот
Формула Шеннона
С F log 2 (1
Pс
P
) Vк Т к Fк log 2 (1 с ) Т к Fк Dк
Рш
Рш
104
105.
DkВременное разделение
каналов (линии связи)
Частотное разделение
каналов (линии связи)
Tk
Dk
Fk
Vк Tк Fк Dк
Tk
Fk
106.
Эпсилон-энтропияКоличество информации в непрерывном сообщении равно бесконечности.
Для воспроизведения непрерывных сообщений не требуется абсолютная точность.
Допустимую неточность воспроизведения можно измерить с помощью малого
параметра
(эпсилон).
Минимальное количество информации, которое требуется передать по каналу связи,
чтобы обеспечить допустимую неточность, называется эпсилон-энтропией.
1
h ( B) log 2
2
2
B
2
106
107.
Лекция №1(II часть)
Структурная схема системы передачи сигналов
S ( , t )
Передатчик
y (t )
Линия связи
Приемник
n(t )
- сообщение (первичный сигнал)
- оценка сообщения
S ( , t )
- модулированный сигнал-переносчик
n(t )
- помеха
y (t ) S ( , t ) n(t )
- входной сигнал
107
108. Теория оптимального приема сигналов
Приемники сигналов, обеспечивающие минимальные искажения сообщенияпри приеме сигналов в условиях помех, называются оптимальными или
идеальными.
В зависимости от назначения приемника критерии оптимальности и количественные характеристики искажений могут быть разными.
В теории оптимального приема обобщенным критерием качества является
критерий «среднего риска» R.
R I ( , ) ( , )d d min
,
(1)
I ( , ) - функция потерь (цена за ошибку)
( , ) - совместная плотность распределения вероятностей ,
( , ) ( ) ( / ) (2)
( ) - плотность распределения вероятностей (ПРВ) оценки сообщения
( / ) - условная плотность распределения вероятностей сообщения
108
109.
Правило оценки принятого сообщения может быть регулярным илинерегулярным.
Регулярный прием – это такое решение, при котором каждой принятой
.
реализации y (t ) соответствует определенное решение
Нерегулярное решение – это такое решение, при котором оценка
связана с y (t ) статистической зависимостью, т.е. оценка сообщения
происходит с определенной вероятностью.
R I ( , ) ( y ) ( / y )dyd (3)
y ,
Rус I ( , ) ( / y )d - условный риск
(4)
R Rус ( y )dy
(5)
y
( y ) - априорная плотность распределения вероятностей y
( / y ) - апостериорная плотность распределения вероятностей
109
110.
Упрощенная структурная схема оптимального приемникаy (t )
( / y )
ОФУ
РУ
ОФУ – оптимальное
фильтрующее устройство
РУ – решающее устройство
Алгоритм разработки структурной схемы оптимального приемника:
1) выбор функции потерь (для непрерывных сообщений – это минимум ( )
для дискретных – это минимум вероятности ошибки;
2) вычисление апостериорной плотности распределения вероятностей (АПРВ)
для определения максимума ( / y ) ,т.е. наиболее вероятного значения;
3) разработка алгоритма работы решающего устройства.
Основная задача оптимального приемника – вычисление ( / y ) для всех
переданных сообщений и принятие решения в соответствии с выбранной
функцией потерь.
110
2
111.
Определение АПРВ1
( / y )
( ) ( y / )
( y)
(6)
( y ) , ( ) - априорные плотности распределения
вероятностей соответственно входного сигнала
и сообщения.
( y / )
- функция правдоподобия.
ПРВ входного сигнала и сообщения распределены по равномерному закону.
1
( y)
y
y
1
( )
- динамический диапазон изменения сообщения.
- динамический диапазон изменения входного
сигнала.
( / y ) K ( y / )
(7)
111
112.
Многомерная функция правдоподобия полностью известных сигналов(n)
y (t ) S ( , t ) n(t )
(8)
- многомерная плотность распределения вероятностей помехи
(гауссовский закон).
( y / ) n [ y(t ) S ( , t )]
(9)
T - интервал времени существования сигнала;
t
1
- интервал дискретизации входного сигнала;
2 Fэ
H
T
- количество выборок.
t
n (nh )
h
2
n
1
exp( h 2 )
2 n
2 n2
n2 N 0 2 Fэ - дисперсия помехи.
nh yh Sh ( )
(10)
(11)
(12)
112
113.
113114.
Определение ФРВДля одномерной ФРВ
P(t1 ) [ X (t1 ) x1 ]
Для многомерной ФРВ
P(t1 ) [ X (t1 ) x2 ]
P X (t1 ) x1 ; X (t 2 ) x2 ,.... X (t n ) xn
P(t1 ) [ X (t1 ) xn ]
Значения x1 , x2 ,.......xn меняются во всем диапазоне изменений случайного процесса X (t )
(флуктуационной помехи n(t ) или первичного сигнала (t ) ) .
114
115.
2n
( y / ) nh [ y h S h ( )] (
) H exp( h 2 ) (13)
2 n
h 1
h 1
2 n2
H
1
H
exp суммы = произведению exp (после
подстановки (14) в (13) получили (15))
2
(14)
h
h
nh2 [ y h S h ( )] 2 y h2 2 y h S ( ) S ( )
y h2
y h S h ( )
S h2 ( )
( y / ) K1 exp( 2 ) exp(
) exp(
) (15)
2
2
2 n
n
2 n
h 1
H
произведение exp = exp суммы (см. (16)
К2
H
( y / ) K 2 exp(
h 1
y h S h ( )
2
n
H
) K 2 exp (
h 1
( y / ) K 2 exp q( )
n ( y / ) nK 2 q( )
y h S h ( )
2
n
) (16)
(17)
(18)
115
116.
Структурная схема оптимального (корреляционного) приемникаразличения дискретных сигналов (полностью известных)
t
q( 1 )
0
S1 (t )
y (t )
t
q( 2 )
РУ
0
S 2 (t )
Оценка сообщения
t
q( n )
дмЗ
0
S n (t )
n - количество сообщений или первичных сигналов (позиционность кода);
t
- длительность элементарного импульса.
116
117.
Коэффициент взаимной корреляцииq( )
1
2
n
H
H
h 1
h 1
q ( )
[ S h ( ) S oh ( ) nh S oh ( )] g ( ) h( ) (19)
При непрерывном наблюдении выражение для
t
случайная
функция
q ( ) изменится:
t
2
q ( )
[ S ( , t ) S ( 0 , t )dt n(t ) S ( 0 , t )dt ] g ( ) h( )(20)
неслучайная
N0 0
0
функция
E
2 E
2
2
(22)
g ( )
rc ( , 0 ) 2 rc ( , 0 ) (21)
на входе пр-ка N 0
N0
t
t
1
rc ( , 0 )
S ( , t ) S ( 0 , t )dt (24)
E S 2 ( , t )dt (23)
E 0
0
2
вых
g 2 ( ) max
h2
(2 )
2
2
2 2
2 2
(25)
117
118.
Параметры сигналов-переносчиковПараметры сигналов-переносчиков делятся на
информационные и неинформационные.
Информационные параметры: амплитуда синусоидального
сигнала (АМн); частота синусоидального сигнала (ЧМн); фаза
синусоидального сигнала (ФМн, ОФМн).
Неинформационные параметры делятся на существенные и
несущественные.
Существенные неинформационные параметры синусоидального
сигнала: частота сигнала (АМн, ФМн, ОФМн); время прихода
элементарного импульса и его длительность; начальная фаза для
когерентного приема (ЧМн).
Несущественные неинформационные параметры
синусоидального сигнала: амплитуда (ЧМн, ФМн, ОФМн);
начальная фаза для некогерентного приема (АМн, ЧМн, ОФМн).
Для приема сигналов со случайными несущественными
параметрами используется квадратурный приемник. Для приема
сигналов со случайными существенными параметрами
используется приемник с синхронизацией: высокочастотной и
тактовой.
118
119.
Оптимальные приемники классифицируются в зависимости отрешаемых задач.
Оптимальный приемник решает одну из следующих задач:
1) различение сигналов;
2) обнаружение сигналов;
3) фильтрация сигналов от помех;
4) оценка параметров сигналов (для определения дальности, скорости,
условных координат);
5) одновременное обнаружение, различение и оценка параметров
сигналов.
Для каждой задачи выбирается критерий оптимальности.
Обобщенным критерием является критерий «среднего риска».
Если все ошибки приема являются равноценными, то критерий
«среднего риска» называется критерием «идеального наблюдателя».
119
120.
Лекция №2Оптимальный приемник для сигналов-переносчиков
со случайной амплитудой и начальной фазой
S ( , t , Ac , ) Ac (t ) cos[ 0 t c ( , t ) (t )]
y (t ) S ( , t , Ac , ) n(t )
(1)
(2)
Ac (t ) - огибающая радиосигнала (почти не меняется за время длительности сигнала).
с ( , t ) - медленно меняющаяся функция, обусловленная частотной или фазовой
модуляцией.
(t ) - случайная начальная фаза.
( )
1/ 2
Значения
Ac , ,
Равномерный закон
плотности распределения
вероятностей начальной
фазы
( )
являются статистически независимыми.
120
121.
Закон Рэлея( Ac ) 2h 2 Acexp( h 2 Aс2 )
( Ac )
1
h2
h 2
(3)
4
4 A2c
( Ac ) - плотность распределения
Ac
вероятностей амплитуды сигналапереносчика
- наиболее вероятное значение (мода)
121
122.
Выражение АПРВ для приемника полностью известных сигналов1
( / y )
( ) ( y / )
( y)
(4)
см. (6) лекция №1
Выражение АПРВ для приемника со случайными амплитудой и
начальной фазой
( , Ас , / y)
1
( , Ac , ) ( y / , Ac , )
( y)
(5)
( y ) - априорная ПРВ входного сигнала;
( , Ac , ) ( ) ( Ac ) ( ) - совместная ПРВ случайных
, Ас , ;
величин
( ) - априорная ПРВ случайной величины ;
(6)
( y / , Ac , ) - функция правдоподобия.
122
123.
( , Ас , / y) ( / y)Операция усреднения по случайным величинам
Ас ,
( / y) ( , Ac , / y) ( Ac , )dAc d
(7)
0
На основании статистической независимости случайных величин
( Ас , ) ( Ас ) ( )
Ас , :
(8)
После преобразований выражения (7) получим формулу (9):
0
( / y) ( Ac )[ ( , Ac , / y) ( )d ]dAc (9)
123
124.
Выражение АПРВ для сигналов со случайными несущественныминеинформационными параметрами ( Ас , ) после операции
усреднения по начальной фазе
( , Ac / y) k ( , Ac ) I 0 [| q( ) |]
(10)
1
АПРВ для полностью известных сигналов
k
( / y) k ( ) K 2 exp q( )
( y)
I 0 [| q( ) |] - модифицированная функция Бесселя нулевого порядка
Лекция №1
Модуль комплексной функции взаимной корреляции
| q ( ) | Ac q ( ) q ( )
2
1
Ac 1 ;
2
2
(11)
q1, 2 ( ) - квадратурные составляющие q ( )
2
q1, 2 ( )
y(t ) S1, 20 ( , t )dt
N0 0
S1, 20 ( , t ) - квадратурные опорные сигналы
(12)
124
125.
Структурная схема квадратурного приемника0
q1 ( )
y (t )
q12 ( ) q 22 ( )
S10 ( , t ) U m cos 0 t
| q ( ) |
q2 ( )
0
S 20 ( , t ) U m sin 0 t
125
126.
Оптимальный приемник сигналов со случайными существенныминеинформационными параметрами
Цель: сформировать опорные сигналы с учетом оценок случайных параметров
сигнала-переносчика для использования в системах синхронизации СС
(высокочастотной СВС и тактовой СТС). СС работает по информационным или
специальным сигналам.
СВС предназначена для отслеживания несущего сигнала по частоте и начальной
фазе и формирования опорных сигналов.
СТС предназначена для отслеживания временных границ элементарных символов
и формирования коротких тактовых импульсов.
y (t )
t
0
РУ
t
0
СВС
СТС
СС
126
127.
Система фазовой автоподстройки частоты ФАПЧФазовый демодулятор
Входной
сигнал
Г
ФНЧ
Г
УЭ
- генератор сигналов
ФНЧ - фильтр нижних частот
УЭ - управляющий элемент
Обеспечивает автоматическое изменение
одного из параметров генератора (частоты,
фазы) за счет управляющего элемента в
соответствии с изменением параметра
входного сигнала с помощью
формирования на выходе фазового
демодулятора сигнала ошибки.
127
128.
Лекция №3Оптимальный приемник сигналов при воздействии негауссовской помехи
В основе оптимального приемника лежит алгоритм нахождения max АПРВ,
который сводится к вычислению max функции правдоподобия и max q ( ) .
Алгоритм справедлив, если ПРВ помехи имеет экспоненциальный характер, как у
закона Гаусса .
H
H
q( ) n ( y / ) n{ п [ y h S h ( )]} n n [ y h S h ( )] (1)
см. (18) лек.№1
h 1
см. (13) лек.№1
Z 0 [ y h S h ( )] n n [ y h S h ( )] (2)
h 1
логарифм произведения = сумме логарифмов
- характеристика оптимального блока
нелинейных преобразований ОБНП
H
y h S h ( ) nh
ОБНП
-
h 1
S h ( 1 )
H
ОБНП
S h ( 0 )
РУ
h 1
Опорные сигналы S h ( 1 ) и S h ( 0 )
128
должны формироваться с точностью до амплитуды.
129.
Асимптотически оптимальный приемникПреобразование функции n ( y / ) с помощью разложения в ряд Тейлора
(справедливо для широкополосных приемников
Выражение для
членов ряда не выше
первого порядка
Sh ( ) nh )
f ( y S ) f ( y) S f 1 ( y) (3)
Исходное выражение для разложения в ряд Тейлора
S S h ( )
d n п ( y h )
Z ao ( y h )
dy
H
f 1 ( y)
S y
n [ y S ( )]
h 1
f ( y S ) n n [ y h S h ( )]
f ( y) n п ( y h )
при условии
n
h
h
см. (1) лек. №3
d n n ( y h )
dy
(4) - характеристика блока нелинейного
преобразования (БНП)
Выражение для реализации схемы асимптотически оптимального приемника
H
H
n [ y S ( )] Z ( y ) S ( )
h 1
n
п ( y)
h
h
h 1
ao
h
h
(5)
S h ( ) и не влияет на
- функция не зависит от сигнала
схему приемника (поиск максимума коэффициента корреляции).
130.
Структурная схема асимптотически оптимального приемника при воздействиинегауссовских помех
yh
БНП
q( 1 )
H
h 1
РУ
S h ( 1 )
q ( 0 )
H
h 1
S h ( 0 )
2
2
2
2
выхнг
выхг
ао
2 2 ао
Е
N0
2
(см. (22), (23) лек. №1)
ао - коэффициент подавления негауссовской помехи
2
ао
1
2
ао
1 для гауссовской помехи
130
131.
Лекция №4Основы теории обнаружения сигналов
Задача обнаружения состоит в формировании наибольшего пикового отношения сигнал/шум и
сравнении выходного напряжения q ( ) с порогом H .
Схема оптимального приемника обнаружения для полностью известных сигналов
у (t )
с
q ( )
ПУ
q ( ) H
0
Выбор порога
H зависит от критерия оптимальности приемника:
1. Критерий среднего риска (известны априорные вероятности).
2. Критерий идеального наблюдателя (известны априорные вероятности, все
ошибки одинаково опасны).
3. Критерий Неймана-Пирсона (априорные вероятности неизвестны).
132.
Варианты результатов работы приемника обнаружения1
0
Р(0 / 1)
вероятность пропуска сигнала
Р (1 / 1)
вероятность правильного обнаружения
Р(1 / 0)
вероятность ложного обнаружения
Р (0 / 0) вероятность правильного необнаружения
Рош Р(0 / 1) Р(1 / 0) вероятность суммарной ошибки по
критерию идеального наблюдателя
Алгоритм выбора порога приемника (критерий Неймана-Пирсона):
1. Задается вероятность ложного обнаружения
Р(1 / 0) .
2. По вероятности Р (1 / 0) определяется величина порога H .
3. По значению порога вычисляются вероятности
Р (1 / 1) , Р(0 / 1) .
132
133.
Определение порогаH
2 c
y(t ) S o (t )dt g ( ) h( ) (1)
q ( )
N0 0
y (t ) S (t ) n(t )
1.
Сигнал присутствует, на выходе коррелятора - случайная величина
с параметрами
М [q сп ] 2 2;
(2)
q cп
D[qсп ] 2 2 .
В результате линейного преобразования гауссовского шума закон ПРВ (q )
cп
случайной величины
остается гауссовским (нормальным).
q cп
2.
Сигнал отсутствует, на выходе коррелятора - случайная величина
с параметрами M [q
qп
2
; D[ q ] 2 гауссовского распределения п (q ).
]
0
п
п
2 с
[ S (t ) n(t )] So (t )dt H
N0 0
Сигнал есть
Отношение правдоподобия
2 c
n(t ) So (t )dt H
N0 0
Сигнала нет
133
134.
ПРВ п (q ) (сигнала нет) и ПРВ cп (q ) (сигнал есть) распределены погауссовскому закону и нормальному закону
п (q)
cп (q)
H
Р (1 / 0) п (q )dq
M [q сп ] 2 2
q
H
(3)
P(0 / 1) сп (q )dq
(4)
Пропуск сигнала
H
Ложная тревога
Р(1 / 1) 1 Р(0 / 1)
Правильное обнаружение
п (q)
cп (q)
q
134
135.
Вычисление вероятностей и порогаV [H ]
1
H
2
exp
z
2 dz
2 H
(5)
Табличный интеграл (дополнение к
интегралу вероятностей)
H
Задаем значение вероятности ложной тревоги и
V
P 1 0
(6)
2
определяем по таблице порог H .
2
H
2
(7)
Р 1 1 V
2
2
2
H
2
Р 1 1 1 V
2
2
2
(8)
H
Р 0 0 1 V
2
2
(9)
H
H
2
Рош V
2
1 V
2
2
2
2
(10)
По критерию идеального наблюдателя
135
136.
Лекция №5Оптимальная линейная фильтрация непрерывных случайных сигналов
Выделение полезного сигнала (t ) из аддитивной смеси сигнала и помехи:
y (t ) (t ) n(t )
Для гауссовских случайных процессов оптимальными являются линейные фильтры.
y (t )
Wф ( j )
(t )
Критериями оптимальности фильтрации являются: 1) минимум среднеквадратической
погрешности , обеспечивает наилучшее воспроизведение формы непрерывного
сигнала (фильтрация второго рода); 2) отношение максимального значения сигнала к
среднеквадратическому отклонению помехи 2 , обеспечивает надежную фиксацию
факта наличия сигнала (фильтрация первого рода).
К фильтрам первого рода относятся согласованные и корреляционные фильтры.
Решение задачи оптимальной фильтрации (фильтрации второго рода) осуществляется
при непрерывном или дискретном наблюдении во временной или частотной областях.
Наиболее простой является расчетная модель линейной фильтрации в частотной
области при непрерывном времени.
137.
Расчетная модель линейной оптимальной фильтрации второго рода(t ) и n(t ) - независимые эргодические случайные процессы с гауссовским законом
ПРВ и известными функции СПМ
S ( ) и S п ( )
Wид ( j ) 1
2
(t ) (t ) (t )
(t )
(t )
2
На основании принципа
суперпозиции получим
выражения (1,2).
S ( ) S ( ) Wф ( j ) S п ( ) Wф ( j ) S ( ) Wид ( j )
S п S п ( ) Wф ( j )
2
S д S ( ) 1 Wф ( j )
(1)
(t )
Wф ( j )
-
(t )
y (t )
n(t )
Текущая погрешность
2 min
Критерий оптимальности
2
(2)
- помеховая составляющая текущей погрешности
2
- динамическая составляющая текущей погрешности
138.
2 д2 п2 (3) S ( ) S ( ) 1 W ( j ) 2 S ( ) W ( j ) 2 (4)ф
п
ф
2
2
1
1
2
S ( ) 1 Wф ( j ) d
S п ( ) Wф ( j ) d (5)
2
2
d 2
0
dWф ( j )
dS ( )
0
dWф ( j )
(6)
Фазовый сдвиг (время задержки) между входным и выходным сигналами фильтра не влияет на
текущую погрешность. Поэтому можно перейти от W
Уравнение (6) решаем относительно
ф
( j ) к Wф ( ) .
Wф ( ) .
Характеристика оптимального фильтра
Wф ( ) опт
S ( )
Wф ( ) опт
S ( ) S п ( )
(7)
139.
После подстановки формулы (7) в выражение (5) получим:S ( ) S п ( )
1
2
d
2 S ( ) S п ( )
(8)
Для физически реализуемых фильтров интегрирование имеет смысл в пределах от 0 до
.
Формула (8) показывает потенциальные возможности оптимальной фильтрации.
Если
Sп ( ) S ( )
, то
Если
Sп ( ) S ( )
,
Wф ( ) опт
то
S ( )
S п ( )
Wф ( ) опт 1
В полосе частот, где спектры сигнала и помехи не пересекаются, т.е.
2 2 .
,
,
2 п2
.
S ( ) S п ( ) 0 ,
Wф ( ) опт 1 . На участках, где спектры сигнала и помехи пересекаются, АЧХ фильтра тем
меньше, чем меньше соотношение между спектральными составляющими сигнала и помехи.
Wф ( ) опт
S ( )
S п ( )
1
139
140.
Пример передаточной функции физически реализуемого оптимальногофильтра
S п ( ) N 0 (белого шума) и S ( ) в виде рациональной функции,
для
стремящейся к нулю, например, экспоненциального типа.
N0
1 W ( j )
N 0 S ( )
2
2
min
S ( )
N0
n 1
d
2
N0
141.
Лекция №6Помехоустойчивость оптимального приемника дискретных сигналов
В качестве основного показателя помехоустойчивости приемника дискретных сигналов
используется вероятность ошибки при приеме элементарного символа Рош .
Рош N ош
N пер
при
N пер
- априорные вероятности
Pi
Pi / j
(1)
- апостериорные вероятности
Пример аналитического расчета Рош
0 ( Р0 ); 1 (
0
Р1 ); 2 ( Р2 ); 3 ( Р3 )
P1 / 0
Р2 / 0
Р3 / 0
Р0 / 0
Рош (а 1) Рi / j (4)
а=4
(позиционность кода)
3
Рош0 Рi / 0 (2)
i 1
Операция усреднения с помощью
априорных вероятностей Pi
Рош Р0 Рош0 Р1 Рош1 Р2 Рош2 Р3 Рош3
a
a 1
Рош Pi Pi / j
i
j i
(3)
j
для случая равенства апостериорных вероятностей и
равенства априорных вероятностей Pi
1
а
141
142.
Помехоустойчивость оптимального и асимптотически оптимального приемникаразличения полностью известных сигналов
у (t ) S ( , t ) n(t ) (1)
На входе приемника
х
х
S (t ) - ортогональные сигналы с
одинаковой энергией
n(t ) - гауссовская помеха
РУ
y (t )
Выражение коэффициента корреляции на выходе приемника в канале с копией входного
сигнала:
i j
q ( ) g ( ) h( ) 2 2 h H
(2)
Случай «свой-свой»
i, j
q сп- нормальный с
Закон распределения ПРВ сп (q ) случайной величины
(3)
параметрами:
D[qсп ] 2 2
M [q сп ] 2 2
Выражение коэффициента корреляции на выходе приемника в канале без копии входного сигнала:
Случай «свой-чужой»
i j
q i , j ( ) 0 h ( ) h
Закон распределения ПРВ п (q ) случайной величины
параметрами:
M [q п ] 0
q п - гауссовский с
D[q п ] 2 2
Вероятность превышения значения
h величины
P1 (h H ) п (q)dq
(4)
(5)
H
(6)
H
142
143.
1 P1 (h H )Вероятность отсутствия ошибки:
(7)
Вероятность отсутствия ошибки во всех каналах, где нет копии входного сигнала:
[1 Р1 (h H )]a 1
(8)
Вероятность правильного приема:
Рправ.пр. [1 P(h H )]a 1 сп ( H )dH
Вероятность ошибки:
Выражение
Выражение
сп ( H ) сп (q)
а 1 Рош 0,1
2 - отношение мощностей
сигнала и шума на один
элементарный импульс
для сигналов с неизвестной начальной фазой:
Рош [( а 1) / 2] exp( 2 / 2)
Выражение
(10)
Рош 1 Рправ.пр. (11)
Рош для ортогональных сигналов при условии
Рош (а 1) V ( ) (12)
Рош
(9)
(13)
квадратурный прием
Рош для канала с негауссовской помехой:
Рош (а 1) V [ , ао , 1 qi , j ( )]
i j
(14)
143
144.
Лекция №7Помехоустойчивость цифровых систем передачи непрерывных сообщений
Оценка помехоустойчивости – приведенная дисперсия суммарной погрешности :
2
2 и2 ф ( кв2 ан2 ) (1)
и2 кв2 ан2
и2 - погрешность интерполяции
(2)
и2 0
ф - коэффициент фильтрации помех интерполяционным фильтром ф 1
кв2
ан2
- погрешность квантования
- аномальная погрешность
2
Причина погрешности:
2
кв - операция квантования;
2 - действие внешних помех.
ан
2
кв
2
ан
(3)
144
145.
Оценка погрешности квантования в цифровых системах с ИКМПогрешность квантования – неустранимая погрешность, возникает вследствие
замены истинного значения сообщения (t ) разрешенным квантованным
к
уровнем кв .
кв кв (tк )
кв - случайная величина, ПРВ кв зависит от способа разбивки шкалы, способа
(4)
отождествления истинного значения с квантованным уровнем (шаг квантования,
число уровней квантования, основание кода), ПРВ сообщения.
При равномерном распределении ПРВ сообщения ( ) 1 / оптимальным (по критерию
минимума среднеквадратичной погрешности квантования) является равномерное квантование.
кв
max min
Lкв 1
Lкв 1
АИМ-сигнал
(5)
кв
- шаг квантования
Lкв
- число уровней квантования
- динамический диапазон сообщения
Lкв а к
а - позиционность кода
кв
к - разрядность кода
145
146.
квПогрешность квантования
1
( кв )
кв
в интервале
кв / 2 кв кв / 2
(6)
вне интервала ПРВ равна 0
М [ кв ] 0
кв / 2
3
2
2
D[ кв ] кв2 кв2 ( кв )d кв кв 2 2кв / 12
(7)
2
2
3 кв 2
12( Lкв 1) 12 Lкв
/ 2
кв
кв
кв
( )
( кв )
1 / кв
-
6
36
2
2
(8)
-
- кв / 2
кв
кв / 2
кв
146
147.
Приведенная дисперсия погрешности квантования для ИКМ2
2
36
3
3
2
кв
квИКМ 2
2 2к
2 2
12( Lкв 1)
Lкв а
2
кв ИКМ
кв2 ИКМ
(9)
зависит от шага квантования, количества уровней квантования,
позиционности кода, числа разрядов в кодовой комбинации, ПРВ
сообщения.
Приведенная дисперсия погрешности квантования для ДИКМ
кв2 ДИКМ
2р
12 L
6 р р
2
кв р
(11)
2
36 р2
12 L
2
кв р
2
3 р2
а
2к р
По аналогии с формулой (8)
2
р
2
р 2 1 (13)
(10)
2 р 36 р2 (12)
2
2
квДИКМ
квИКМ
(14)
147
148.
АИМ- сигнал(t k 1 ) (t k )
конечная разность первого порядка
р
(1) (t k ) (t k 1 )
р
Lквр Lкв
кр к
кв const
при
при
а соnst
148
149.
Аномальные погрешности при ИКМВ результате действия помех в канале связи дискретные сигналы искажаются, происходит
ошибочный прием (вместо одного символа фиксируется другой).
Последовательность видеоимпульсов (огибающая радиоимпульсов)
1
0
1
1
1 2 0 0 21 1 2 2 1 2 3 13
1 2 0 0 21 1 2 2 0 2 3 5
1
0
1
0
ан 5 13 8
к 1
ан к а 0 а 1 а 2 а ... а
i
0
1
2
i 0
i -
разрядная цифра, случайная величина, принимающая значения:
i 1, если произошла ошибка для
а 2
ан кв ан (16)
ан - аномальная ошибка в единицах измерения
амплитуды.
к 1
Lкв Lкв (15)
i ,0если символ принят правильно;
а - основание кода.
ан - аномальная ошибка,
выраженная в количестве
разрядов.
149
150.
Дисперсия аномальной погрешностик 1
к 1
i 0
i 0
D( ан ) D( i a i ) (а i ) 2 D( ) (17)
- дисперсия
ан
D( ) - дисперсия случайной величины (зависит от вероятности ошибки Рош
и позиционности кода)
Дисперсия аномальной погрешности в единицах измерения амплитуды
k 1
D( ан ) a 2i D( ) (18)
2
кв
i 0
ан - дисперсия
Приведенная дисперсия аномальной погрешности
2
ан
D( ан ) / 12 Pош (19)
2
для гауссовского сообщения
Аномальная погрешность характеризует достоверность передачи сообщений.
В качестве достоверности используют также вероятность появления
аномальной погрешности Ран .
150
151.
Оценка вероятности появления аномальной погрешностик символов, может быть искажено от одного
до всех к символов.
В кодовой комбинации, состоящей из
Вероятность появления аномальной погрешности Ран - это вероятность того, что кодовая
комбинация будет принята хотя бы с одной ошибкой. Величина Ран зависит от вероятности
ошибочного приема элементарного символа
Рош и характера распределения ошибок в
канале связи.
Допущения:
В канале действует белый гауссовский шум (все ошибки при приеме кодового слова независимые события).
Значения вероятности ошибки в любом разряде кодового слова одинаковы Рош const
i
Сигналы-переносчики имеют одинаковые энергии и коэффициенты взаимной корреляции.
Вероятность того, что в кодовой комбинации из
символов, определяется по формуле Бернулли:
к символов будут искажены l
l
Рошк (l ) Ckl Pош
(1 Pош ) к l
C k! / l!(k l )! (21)
l
k
- число сочетаний из
(20)
к по l
151
.
152.
Расчет вероятности аномальной ошибкиВероятность хотя бы одной ошибки в кодовой комбинации
k
Ран
k
l
Ран Pошк (l ) C kl Pош
(1 Pош ) k l
l 1
(22)
l 1
При качественной передаче цифровых сигналов в кодовых комбинациях
возникают преимущественно одиночные ошибки и значение Ран
рассчитывается по упрощенной формуле:
к Рош 0,1 (24)
Ран 1 (1 Рош ) к к Рош (23)
где
(1 Рош ) к (25) - вероятность того, что ошибки не будет ни в одном
из
Вероятность Р
ан
к символов.
зависит от основания кода, метода манипуляции,
коэффициента взаимной корреляции несущих сигналов, метода приема, вида
2 на входе приемника.
помех, отношения мощностей сигнала к шуму
152
153.
Оценка2 и
Ранр при дифференциально-импульсно-кодовой модуляции
анр
(ДИКМ)
Методика расчетов
2
и Ранр при ДИКМ такая же, как для ИКМ.
анр
Учитывая, что динамический диапазон изменений сигнала р при ДИКМ
(конечные разности первого порядка) значительно меньше динамического
диапазона при ИКМ, можно записать следующие соотношения:
р
Lквр Lкв
кв const
кр к
а соnst
2
анр
12 Рош р2
Ранр к р Рош
(26)
(27)
2
р2 р2 1
по аналогии с формулами
(19); (23)
При одинаковом качестве канала передачи, определяемом Рош , в
2
2
системе с ДИКМ обеспечивается в
раз меньшее значение ан
р
и в ( к / к р ) раз меньшее значение
.
Ран
153
154.
Расчет суммарной погрешности при ИКМЯвление порога
При передаче непрерывных сигналов с помощью ИКМ с гауссовским законом ПРВ
помехи приведенная дисперсия суммарной погрешности определяется по формуле:
2
2
кв
3
2 к 12 Рош
а
2
ан
(28)
Если передача ведется с помощью ИКМ-ЧМ, то вероятность ошибки равна:
12
а 1
Рош
ехр( ) (29) См. лек.№6 формула (13) для квадратурного приема.
2
2
к - отношение мощности,
2
12 - отношение мощностей
элементарного импульса и помехи.
2
1
затраченной на передачу
кодового слова, к
мощности помехи.
3
2
2 к 6 (а 1) ехр( )
2к
а
2
(30)
154
155.
2 f (к, Lкв )2
2 const
Lкв а к
d 2
0
dк
Индекс модуляции
к опт
Области зависимости
f ( ) :
2
подпороговая,
2
2
к1
M опт а к опт
к, Lкв
к2
2 f ( 2 )
k const
к1 к2
пороговая,
надпороговая.
2
пор
- рабочее значение
2
2
Чем больше число разрядов, тем больше вероятность аномальной ошибки, тем
резче проявляется порог. Чем больше индекс модуляции, тем больше полоса
частот сигнала, тем выше качество передачи.
155
156.
Расчет приведенной суммарной погрешности при ДИКМ3
2
2р кв2 р анр
[ 2 к 6 (а 1) ехр(
а
р
M р а кр
2
2к р
)] р2
(31)
р2 1
По сравнению с ИКМ при одинаковых условиях ДИКМ обеспечивает
меньшую погрешность квантования
погрешности
кв2 и меньшие значения аномальной
ан2 и вероятности аномальной погрешности Ран , являясь
более помехоустойчивой системой передачи сигналов.
Недостаток ДИКМ (процесс накопления и размножения аномальных ошибок)
устраняется с помощью различных технических методов.
156
157.
Лекция №8Многоканальные системы передачи информации (МКС)
В основе МКС лежит принцип уплотнения линий связи (одновременная передача
нескольких модулированных сигналов-переносчиков), который повышает пропускную
способность, а также экономическую эффективность использования линий связи. В основе
уплотнения лежит принцип ортогональности (различимости) сигналов-переносчиков.
Методы уплотнения основываются на формуле Шеннона для определения информационного объема
канала (линии) связи V к :
Vк Tк Fк Dк
Коэффициент корреляции для
ортогональных сигналов
1
C, i j
r ( Si , S j ) Si (t ) S j (t )dt
Е0
0, i j
Tк - время передачи сигналов
Fк - полоса частот канала (линии связи)
Dк - динамический диапазон канала (линии связи)
t
Классификация методов уплотнения:
1) временное разделение каналов (ВРК): на отдельные временные интервалы (тайм-слоты) делитсяTк;
2) частотное разделение каналов (ЧРК): на отдельные частотные полосы делится Fк ;
3) кодовое разделение каналов или по форме сигнала переносчика (КРК): для разделения сигналов
используется ресурс Dк .
157
158.
DkВременное разделение
каналов (линии связи)
Частотное разделение
каналов (линии связи)
Tk
Dk
Fk
Vк Tк Fк Dк
Tk
Fk
159.
Особенности методов уплотненияВРК
Сигналы-переносчики – импульсные последовательности (кодовые комбинации),
которые передаются для каждого сообщения в отведенные временные интервалы (таймслоты), занимают всю полосу частот линии Fк , требуют временной синхронизации
(точного совпадения начала и конца временных каналов на передающей и приемной
сторонах).
ЧРК
Сигналы-переносчики –синусоидальные сигналы, амплитудно-модулированные,
которые передаются в разных частотных полосах линии связи, существуют в одно и то
же время Tк (передаются одновременно), требуют частотной синхронизации (точного
совпадения спектра модулированного сигнала с выделенной полосой частотного канала
на передающей и приемной сторонах).
КРК
Сигналы-переносчики – дискретные ортогональные последовательности в виде
прямоугольных импульсов различной длительности и полярности («прямоугольной
волны» функций Уолша, Радемахера или прямоугольного синуса, Чебышева и т.д.),
требуют точного совпадения начала и конца интервалов ортогональности (тактовых
интервалов) на передающей и приемной сторонах, передаются одновременно и
занимают одну и ту же полосу частот линии связи Fк .
159
160.
Принципы временного уплотнения АИМ-сигналов в системе с ВРКАИМ-импульсы
t АИМ
В t
АИМ
может учитываться межканальный интервал
Период опроса
N
Tо
t АИМ
Т о 1 / 2 f эф
f эф
- эффективная полоса
частот сообщения
N - число временных каналов в системе с ВРК
160
161.
Структурная схема передающей аппаратуры системы с ВРК1 (t )
2 (t )
n (t )
ФНЧ
ФНЧ
ФНЧ
Кл
АМн,
ЧМн,
ФМн,
ОФМн
Кл
ФСИ
ГИ
Кл
АИМ
ИКМ
Гн
Кл
Распределитель
управляющих импульсов (РИ)
РИ состоит из линий задержки на t АИМ
ФСИ - формирователь синхроимпульса
Коммутационная система КС=РИ+Кл
Мн
Под действием УИ
замыкается Кл и
формируется
выборка АИМ
Электронный ключ
(Кл)
Управляющий импульс (УИ)
Длительность УИ = t АИМ
161
162.
Структурная схема приемной аппаратуры системы с ВРКАМн, ЧМн,
ФМн, ОФМн
ИКМ
Кл
ДМ
Корреляционный
приемник
ФНЧ
1 (t )
ФНЧ
2 (t )
ФНЧ
n (t )
АИМ
ИКМ
Кл
АИМ
Кл
ИКМ
АИМ
Декодирующие
устройства
ВСИ
Интерполяционные
фильтры
ГИ+РС
ВСИ - выделитель синхроимпульса (СИ) для запуска генератора управляющих
импульсов и распределительной системы. СИ отличаются от импульсов АИМ
большей амплитудой и большей длительностью. Кл каждого временного канала
на передающей и приемной сторонах должны работать синхронно (замыкаться и
162
размыкаться).
163.
Принципы частотного уплотнения в системе с ЧРКАЧХ линии связи и спектры уплотняемых сигналов
(t )
(t )
АМ
ПФ1
ОМ
ОМсигнал
Частотная полоса ПФ
f
f н1
f н1
Преобразователь
(Пр)
f
f н1
4 кГц
Пр=АМ+ПФ
Частотная полоса уплотняемой линии связи
F
Число уплотняемых каналов
N
F
f
163
164.
Приемо-передающая аппаратура системы с ЧРКS1 ( , t )
1 (t )
f н1
2 (t )
S 2 ( , t )
S 2 ( , t )
1 (t )
Мод Гр
Демод
ЧМ, ФМ
Гр
S n ( , t )
fн2
n (t )
S1 ( , t )
f н1
2 (t )
fн2
S n ( , t )
Ген
f нn
ПФ1
S1 ( , t )
n (t )
f нn
ПФ1
S 2 ( , t )
ПФ2
ПФn
ПФ2
S n ( , t )
ПФn
164
165.
Принцип кодового уплотнения в системе с КРКФункции Уолша
Амп.
База шумоподобного сигнала ШПС
64 ортогональных комбинаций
В
Т
1
t
1
2
t
3
t
4
t
Т - период ортогональности
165
166.
Принцип модуляции с помощью ШПС1
Мод
1-я функция
Амп.
Т
2
Мод
2-я функция
3
Мод
3-я функция
1
2
(t )
АИМсигнал
3
t
1
1
2
2
3
3
Т
поступают на модуляторы одновременно
166
167.
Модулированные сигналы (64 комбинации ШПС) складываются и поступают намодулятор ЧМ (ФМ). На одной несущей частоте могут одновременно
обслуживаться 64 абонента (на практике используют 32 комбинации для
уменьшения «шумов ортогональности», возникающих за счет отсутствия
возможности синхронизации периодов ортогональности ШПС, например, в
системах сотовой связи).
Структурная схема системы передачи сигналов ШПС
1 (t )
СФ1
х
2 (t )
х
n (t )
х
Мод
Демод
ЧМ,ФМ
ЧМ,ФМ
1 (t )
СФ2
СФn
2 (t )
n (t )
Чем больше база ШПС, тем меньше длительность элементарного импульса, тем
больше ширина полосы частот, занимаемая системой КРК, тем сильнее спектр
ШПС приближается к спектру белого шума, тем меньше «шумы ортогональности»
(выше качество связи). Свойство квазиортогональности ШПС и использование их без синхронизации
есть преимущество ШПС перед системой ортогональных синусоидальных сигналов.
На приемной стороне используются согласованные фильтры, настроенные на
прием определенной комбинации импульсов (функций Уолша). В основе
согласованных фильтров (СФ) – линии задержки на время длительности
элементарного импульса. На выходе СФ формируется метка по аналогии с
оптимальным приемником, пропорциональная амплитуде АИМ (сообщения) на
передающей стороне.
167
electronics