Uploaded by Ганна Миколаївна Страшненко

Дистанционное обучение (конспект лекций )

advertisement
Харківський національний університет радіоелектроніки
"ЗАТВЕРДЖУЮ"
Декан факультету
___________Сакало С.М.
(підпис, прізвище, ініціали)
"____" ____________2011 р.
РОБОЧА ПРОГРАМА
З дисципліни “Основи теорії передачі інформації”
Для напряму підготовки 6.050901 – “Радіотехніка”
Факультет радіотехнічний
Кафедра
«Радіоелектронні системи»
1 НОРМАТИВНІ ДАНІ З ДИСЦИПЛІНИ
Семестр 4
Кількість годин
Кількість залікових
кредитів (ECTS)
Аудиторних занять
Самостійна робота
Форма контролю
Курсова робота
Характеристика дисципліни
Цикл: загальнопрофесійних
120
4,0
50
лк
24
пз
10
70
Мод. Іспит
лб
16
Форма навчання: денна
Курс: 2
Семестр: 4
Дисципліна вивчається
з 2000 р.
Робоча програма розроблена на підставі освітньо-професійної
програми підготовки фахівців освітньо-кваліфікаційного рівня бакалавр за
напрямом 6.050901,
затвердженої наказом МОН України від “___”_______200_ р. № ___.
Робочу програму розробив
15 вересня 2011р.
проф. Сідоров Г.І.
Затверджено на засіданні кафедри "Радіоелектронні системи"
Протокол № 2 від 15 вересня 2011 р.
Узгоджено
зав. кафедрою ОРТ
________
проф. Шокало В.М.
(підпис)
зав. кафедрою РЕС
___________ проф. Карташов
В.М.
(підпис)
зав. кафедрою РЕП
___________ проф. Антіпов І.Є.
(підпис)
зав. профілюючою кафедрою
___________
проф. Карташов В.М.
(підпис)
Ухвалено вченою радою факультету _________
Протокол № ____ від “___”__________ 2011 ___ р.
Навчальний графік з дисципліни
“Основи теорії передачі інформації” для напряму 6.050901 – “Радіотехніка”
гр. РТ-10 – 2,2,3
весняний семестр
ВИДИ ЗАНЯТЬ
НАВЧАЛЬНІ ТИЖНІ
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
Обсяг,
2 2
2 2 2
2 2 2
2 2 2
2
год
Лаборат. Обсяг,
4
4
4
4
роботи
год
Практичні Обсяг,
2
2
2
2
2
заняття
год
Самост. Обсяг,
робота
год
2 2 4 4 4 4 4 3 3 4 4 4 4 6 6 6 4 6 4 4
студентів
Точка
+
+
+
контролю
Консультація
Курсовий
Точка
проект
контролю
Консультації
+
+
+
+
+
+
+
+
+
Строки проведення
Мо
д
заліків, іспитів
Лекції
2. МЕТА І ЗАВДАННЯ ДИСЦИПЛІНИ
2.1 Мета навчальної дисципліни
Дисципліна “Основи теорії передачі інформації” входить до циклу фундаментальних та професійно-орієнтованих дисциплін і є основою для вивчення дисциплін “Радіотехнічні системи”, “Системи радіозвязку”, “Пристрої та
системи телебачення”.
Зміст дисципліни:
Теорія інформації, пропускна спроможність каналу звязку, теорія завадостійкого кодування інформації, теорія оптимальних засобів виявлення сигналів, їх розпізнавання та розмежування, фільтрація сигналів, оцінка параметрів сигналів.
2.2 Завдання дисципліни
За результатом вивчення дисципліни студенти повинні:
ЗНАТИ:
основи теорії інформації, теореми Шеннона для каналів звязку, принципи
завадостійкого кодування інформації, способи побудови оптимальної обробки
інформації для різних видів сигналів, методи аналізу та синтезу оптимальних
приймачів сигналів.
ВМІТИ:
розраховувати параметри та якісні характеристики різних каналів звязку,
розробляти системи завадостійкого кодування сигналів, створювати структурні
схеми оптимальних приймачів сигналів, вибирати типи сигналів, розраховувати
завадостійкість типових радіотехнічних трактів.
Семестр
3
3, 4
4
3
3 ПЕРЕЛІК ЗАБЕЗПЕЧУЮЧИХ ДИСЦИПЛІН
(із зазначенням розділів)
Забезпечуюча дисципліна
Використовується
в семестрі
Назва
Розділ
Вища математика
Теорія імовірностей
4
Сигнали та процеси в
радіотехніці
Спектральні представлення сигналів, теорія
випадкових процесів
4
Електродинаміка та
поширення радіохвиль
Інформатика
4
Розробка алгоритмів
4
4 СТРУКТУРА ЗАЛІКОВИХ КРЕДИТІВ
4.1.1 Розподіл обсягу змістовних модулів за видами занять
Залік
кред
1
Змістов.
Мод.
2
1
2
Назва та зміст змістовного
модуля
Розподіл часу за видами
занять, год.
Срс
лк лб пз
кз
3
Системи передачі інформації.
Основні поняття і визначення
Інформаційні характеристики
джерел неперервних повідомлень
Передавання інформації дискретними і неперервними каналами
зв’язку
4
5
6
2
7
2
5
2
2
9
Підсумок
4 Завадостійке кодування. Основні
положення
теорії
завадостійкого кодування.
І,25
5 Систематичні блокові лінійні коди
6 Циклічні коди
Підсумок
7 Оптимальний когерентний
прийом дискретних сигналів
8 Некогерентний прийом
дискретних сигналів
1,25 9 Оптимальне некогерентне
приймання дискретних сигналів і
його завадостійкість
10 Цифрові методи передачі
неперервних повідомлень
6
4
15
Підсумок
11 Багатоканальні системи передачі
інформації.
0,5 12 Багатостанційні системи передачі інформації.
Підсумок
Всього за 4-й семестр
8
3
9
5
2
І,0
8
Рейт.
оцінка
2
4
2
2
6
4
4
12
15-25
5
2
2
4
10
10
25
за
хист
за
хист
20-35
за
хист
2
4
1
5
2
4
1
5
за
хист
2
5
ІРЗ
2
10
8
2
25
2
2
2
3
4
24
5
70
20
10
20-35
3-5
60-100
4.1.2. Літературні джерела до тем лекцій
№ п/п
1
1
Тема та зміст лекцій
Літературні
2
Системи передачі інформації, основні поняття і
визначення
Основні характеристики джерел дискретних і
неперервних повідомлень
Передавання інформації дискретними і
неперервними каналами зв’язку
Завадостійкість кодування. Основні положення
Систематичні блокові лінійні коди
Циклічні коди
Оптимальне когерентне приймання дискретних
сигналів
Некогерентне приймання дискретних сигналів
Оптимальне і квазиоптимальне приймання
неперервних сигналів і його завадостійкість
Цифрові методи передавання і приймання
неперервних повідомлень
Методи ущільнення і розділення в багатоканальних системах передачі інформації
Передавання інформації в багато станційних системах
2
3
4
5
6
7
8
9
10
11
12
джерела
3
[1-7]
[1,2,3,4,6,7]
[1,2,3,4,6,7]
[1-7]
[1-7]
[1-7]
[1-7]
[1-7]
[1-7]
[1-7]
1,2,4-7
1,2,4-7
4.2. Лабораторні роботи
№
зміст.
модулю
1
6,7,8
9,10
11
14
Теми занять
2
Вивчення принципу дії та дослідження завадостійкості радіосистеми передавання
інформації із блоковим кодом
Вивчення властивостей і принципів побудови циклічних кодів
Дослідження оптимального кореляційного
приймача двійкових радіосигналів і його
завадостійкості
Дослідження некогерентного приймача
двійкових радіосигналів і його
завадостійкості
Підсумок
Обсяг,
год.
Рейт.
оцінка
Літер.
джер.
3
4
3,5-5 [1-10]
4
3,5-5 [1-10]
4
3-5
[1-10]
4
3-4
[1-10]
16
4.3. Практичні заняття
№
зміст.
мод.
Теми занять
1
2
Інформаційні характеристики
2
джерел дискретних і неперервних
повідомлень
Передавання інформації по
3
дискретним і неперервним каналам
зв´язку
Завадостійкі лінійні і циклічні бло5,6
кові коди
Оптимальне когерентне і
7,8 некогерентне приймання дискретних
сигналів і його завадостійкість
Аналогові і цифрові методи передачі
9,10 і приймання неперервних
повідомлень їх завадостіййкість
Підсумок
Обсяг,
год.
Рейт.
оцінка
Літер. джер.
3
4
5
2
3-6
[8;с.5-14]
2
3-6
[8;с.5-14]
2
3-6
[8;с.14-22]
2
3-4
[8;с.22-29]
2
3-4
[2;с.180-191]
10
4.4 Самостійна робота студента
№
зміст.
мод.
Теми самостійної
роботи
обсяг,
год
Форма СРС
Вид контролю
Літер.
Джер.
1
2
3
4
5
6
1-3
Основні
характеристики
систем передачі
інформації.
Інформаційні
характеристики
джерел і каналів
передавання
інформації
15
Вивчення теоретичного
матеріалу
з
використанням
навчальної літератури і
конспекту
лекцій.
Підготовка
до
практичних
занять.
Виконання
індивідуального
розрахункового
завдання
Усне
опитування.
Контрольна робота
1-10
1
2
3
4
5
6
4-6
Кодування
повідомлень
системах
передавання
інформації
7-10
Оптимальне
приймання в
системах
передавання
інформації
11-12
Методи
багатоканального
передавання в
системах передачі
інформації
5
Підсумок
70
в
25
25
Вивчення теоретичного
матеріалу
з
використанням
навчальної літератури і
конспекту
лекцій.
Підготовка
до
лабораторних
і
практичних
занять.
Виконання
індивідуального
розрахункового
завдання
Вивчення теоретичного
матеріалу
з
використанням
навчальної літератури і
конспекту
лекцій.
Підготовка
до
лабораторних
і
практичних
занять.
Виконання
індивідуального
розрахункового
завдання
Вивчення теоретичного
матеріалу
з
використанням
навчальної літератури і
конспекту
лекцій.
Підготовка
до
лабораторних
і
практичних
занять.
Виконання
індивідуального
розрахункового
завдання
Усне
опитування.
Контрольна робота
1-10
Усне
опитування.
Контрольна робота
1-10
Усне
опитування.
Контрольна робота
1-10
Тес
т
4.5 Рейтингова оцінка за дисципліною
Всього
КТ
КТ
ІРЗ
ЛБ№5
ПЗ№5
ЛБ№4
КТ
ІРЗ
ЛБ№3
ЛБ№2
ПЗ№4
ЛБ№1
ПЗ№3
КТ
ІРЗ
ПЗ№2
5-8
5-8
5-9
15-25
3-6
3,5-5
3-6
3,5-5
3-5
4-8
20-35
5-8
5-8
5-8
6-10
20-35
3-5
60-100
Мін/мах
Ваг.кое
ф.
ПЗ№1
Вид заняття / контрольний захід
5 НАВЧАЛЬНО–МЕТОДИЧНЕ ЗАБЕЗПЕЧЕННЯ ДИСЦИПЛІНИ
5.1 Література
1. Мазурков М.І. Основи теорії передавання інформації. Навч. посіб. для
вищ. навч.закл. / Одес.нац.політех.ун-т. – Одеса: Наука і техніка, 2004. – 168 с.
2. Сідоров Г.І. Основи теорії передавання інформації в прикладах та задачах
[Текст]; навч. посіб. –Х. і компанія СМІТ, 2009. -320с
3. Зюко А.Г. Элементы теории передачи информации. – Киев: «Техника»
1969. – 300 с.
4. Кузьмин И.В., Кедрус В.А. Основы теории информации и кодирования. 5. Радиотехнические системы передачи информации: Учеб.пособие для вузов/В.А. Борисов, В.А. Калмыков, Я.М. Ковальчук и др./Под ред. В.А. Калмыкова. – М.: Радио и связь, 1990. – 304 с.
6. Пенин П.И., Филиппов Л.И. Радиотехнические системы передачи информации: Учеб.пособие для вузов. – М.: Радио и связь, 1984. – 256 с.
7. Игнатов В.А. Теория информации и передачи сигналов. – М.: Сов.радио,
1979. – 280 с.
5.2 Методичні посібники та вказівки
8. Методичні вказівки до практичних занять з дисципліни “Основи теорії
передачі інформації”/Упорядники Г.І. Сідоров, О.В. Зубков, – Харків: ХНУРЕ,
2008. – 109 с.
9. Методичні вказівки до самостійної роботи студентів з дисципліни
“Основи теорії передачі інформації”/Упорядник Г.І. Сідоров, - Харків: ХНУРЕ,
2006. – 42 с.
10. Методичні вказівки до лабораторних робіт з дисципліни “Основи теорії
передачі інформації”/Упорядники Сідоров Г.І, Зубков О.В., Савченко І.В.
Харків: ХНУРЕ, 2007,33с
ЛЕКЦІЯ 1
Система передачі інформації. Основні поняття і визначення
Мета лекції – вивчення наступних питань:
1. Застосування інформаційних систем для вирішення різноманітних задач
у сучасному світі.
2. Класифікація систем передачі інформації.
3. Узагальнена структурна схема системи передачі інформації.
4. Основні інформаційно-технічні характеристики систем передачі інформації
4.1 Вірогідність передачі інформації
4.2 Завадостійкість передачі інформації
4.3 Швидкість передачі інформації
4.4 Пропускна здатність каналів зв'язку.
1. Місце інформаційних систем у сучасному світі
Інформаційні системи - це насамперед системи зв'язку й керування. До інформаційних пристроїв ставляться також вимірювальні прилади й апарати, що
сприймають інформацію про стан різних процесів і об'єктів і передавальній її
людині або автомату.
Розглянемо інформаційну систему з погляду процесів, що відбуваються в
ній. У системі зв'язку джерелом інформації є відправник повідомлення, а споживачем її одержувач. У радіоастрономічній системі джерелом інформації буде
досліджуваний космічний об'єкт, а в системі керування - керований об'єкт. В
останньому випадку цим об'єктом може бути верстат, насосна станція, цех, завод, космічний корабель. Споживач інформації в цих випадках являє собою
єдину систему використання інформації. Залежно від призначення й завдань, що
обчислюються інформаційною системою, отримана споживачем інформація
направляється для зберігання або для виробітку сигналів керування.
Інформація від джерела сприймається за допомогою датчиків, які являють
собою первинні перетворювачі інформації в електричні або інші сигнали, зручні
для подальших перетворень. Потім ці сигнали надходять у накопичувач або
систему передачі.
Системи передачі (системи зв'язку) служать для перенесення інформації в
просторі. Існує багато різних систем зв'язку.
У системах телекерування й системах зв'язку інформація може передаватися
як в прямому (від джерела до споживача) так і у зворотному напрямку. Зворотний канал при цьому використовується для передачі сигналів впливу на джерело
інформації (керований об'єкт) з метою зміни режиму його роботи, у тому числі
режиму передачі інформації.
Функції переробки інформації виконуються або безпосередньо людиною,
або спеціальними автоматами. У результаті переробки видається інформація, що
використовується споживачем або передається в накопичувач для зберігання. У
системах керування в результаті переробки отриманої інформації виробляються
командні сигнали, які потім через систему передачі й виконавчі органи впливають на керований об'єкт.
Основними видами систем передачі інформації є системи електричного зв'язку, об'єктом передачі яких є повідомлення, що несе інформацію для передачі від
відправника до одержувача.
По типі переданих повідомлень системи зв'язку можна розділити на дискретні (цифрові) і аналогові. Прикладом дискретних систем є система передачі
даних. Системи радіомовлення й телефонії можуть бути віднесені до числа аналогових. Система передачі безперервних повідомлень за допомогою імпульснокодової модуляції є системою змішаного типу.
Система телевимірювання (телеметрії) подібна до системи зв'язку. У цій системі фізична величина, що підлягає виміру (температура, тиск, швидкість і т.п.)
за допомогою датчиків впливає на передавальну систему, де вона перетвориться
в сигнал і передається по каналі. На прийомному кінці передана фізична величина або її зміни виділяється із сигналу й спостерігається або регулюється за допомогою приладів.
Під інформацією розуміють будь-які відомості про яку-небудь подію, об'єкт,
процесі. Інформація, виражена в певній формі, являє собою повідомлення. Сигнал є матеріальним носієм інформації.
Повідомлення й відповідні їм сигнали бувають дискретними й безперервними. Дискретне повідомлення являє собою дискретну послідовність окремих
елементів. Сигнал у цьому випадку також являє собою дискретну послідовність
окремих елементів, що відповідають елементів переданого повідомлення. Перетворення дискретного повідомлення в сигнал складається із двох операцій: кодування й модуляції. Безперервні повідомлення - це деяка фізична величина, що
приймає будь-які значення в заданому інтервалі. Також повідомлення за допомогою датчиків може бути перетворене в електричну величину, що безупинно
змінюється, u(t).
У нашім курсі ми, насамперед, будемо орієнтуватися на вивчення процесів
передачі інформації в радіотехнічних системах.
2. Класифікація систем передачі інформації
Радіосистеми передачі інформації можуть бути класифіковані за рядом ознак,
насамперед по методах побудови й діапазоном радіохвиль.
1.
Радіорелейні лінії зв'язку призначені для забезпечення передачі більших
обсягів інформації (безперервної й дискретної) на великі відстані з використанням проміжних ретрансляторів , які звичайно розташовуються уздовж
траси на відстанях порядку 30 км у межах прямої видимості. Робочий діапазон частот 3...12Ггц (Довжина хвиль 10...25см)
2.
Системи тропосферного зв'язку використовують ефект далекого тропосферного поширення радіохвиль, розсіяних на атмосферних неоднорідностях
на висотах до 10...12 км. Гранична дальність зв'язку до 800 км. Працюють
у діапазоні дециметрових і сантиметрових хвиль. Максимальна ширина
спектра переданих сигналів до 2 Мгц
3.
Системи іоносферно-метеорного зв'язку використовують ефект розсіювання від іоносфери метеорних слідів на висотах до 100 км. Гранична дальність зв'язку до 2200 км. Максимальна швидкість передачі інформації в системах до 4,8 кбіт/с. Робочий діапазон частот 30...60 МГц.
4.
Системи декаметрового зв'язку забезпечують глобальний зв'язок у межах
усього земної кулі за рахунок багаторазових відбиттів від іоносфери й по-
верхні Землі. Працюють у діапазоні від 2 до 30 Мгц, максимальна швидкість передачі інформації до 4800 біт/с.
Супутникові системи зв'язку забезпечують глобальний зв'язок у межах
5.
усього земної кулі. Підрозділяються на системи на високоорбітальних (геостаціонарних) супутниках і на низькоорбітальних. У цих системах забезпечується передача більших обсягів інформації з високою надійністю. Робочий діапазон частот до 15 ГГц.
Стільникові системи зв'язку між абонентами в межах більших міст і тери-
6.
торій країн шляхом використання великої кількості базових станцій, що
забезпечують надання частотних і тимчасових інтервалів для зв'язку індивідуальних абонентів. Робочі частоти 0,9 і 1,8 Ггц.
Транкові системи зв'язку призначені для організації відомчих радіомереж
7.
рухливих абонентів у межах більших міст із застосуванням однієї базової
станції.
3. Узагальнена структурна схема системи передачі інформації
6
1
2
3
4
5
7
8
9
5’
4’
3’
10
11
12
11’
10’
9’
8’
7’
6'
2’
1’
Система передачі інформації - сукупність вузлів і блоків, що забезпечує передачу інформації від джерела до одержувача, розташованому на виддаленні від
джерела.
ДО СПІ відносять:

системи зв'язку,

системи телеметрії,

системи передачі команд.
Системи зв'язку - системи, призначені для обміну інформацією між джерелом і одержувачем у вигляді мовних сигналів або даних.
Системи телеметрії - системи, призначені для передачі даних вимірів фізичних величин на відстані.
Системи передачі команд - призначені для передачі команд від пункту керування до різних виконавчих механізмів.
Всі системи можуть бути описані узагальненою структурною схемою. Системи зв'язку можуть працювати в режимі симплексного зв'язку (коли обмін інформацією відбувається по черзі по одній лінії в'язі), або в дуплексному режимі
(при цьому обмін інформацією відбувається одночасно з використанням двох
різних каналів).
Опис структурної схеми:
1, 1’ – джерело інформації
2, 2’ – кодер джерела
3, 3’ – кодер канали
4, 4’ – модулятор
5, 5’ – підсилювач потужності з випромінювачем
6, 6’ – лінія зв'язку
7, 7’ – лінійна частина радіоприймального пристрою
8, 8’ – демодулятор
9, 9’ – декодер каналу
10, 10’ – декодер джерела
11, 11’ – одержувач інформації
12 - джерело завад.
Джерело інформації генерує інформацію в тім виді, що властива для даного типу. Необхідно, щоб між джерелом інформації й кодером стояв перетворювач, що перетворює неелектричний сигнал в електричний.
Кодер джерела – пристрій, що формує електричний первинний сигнал у
форму, що має певний математичний опис, тобто формує первинний бітовий
потік.
Кодер каналу – пристрій, що перетворює первинний бітовий потік у форму,
необхідну для ефективного узгодження переданої інформації з каналом зв'язку.
При передачі мовних повідомлень як канал використовуються різні перетворювачі на основі авторегресії. Основне завдання - зменшення швидкості інформа-
ційного потоку з метою передачі цього сигналу по вузькосмуговим каналах
зв'язку. При передачі даних у кодері каналу здійснюється завадостійке кодування.
У модуляторі відбувається формування високочастотного сигналу, тобто
модуляція високочастотної несучим інформаційним низькочастотним
сигна-
лом.
Завданням підсилювача потужності є посилення сигналу до рівня, необхідного для того, щоб на вході прийомного пристрою з урахуванням ослаблення в
лінії зв'язку, мати співвідношення сигнал/шум, необхідний для забезпечення
заданих характеристик системи.
Лінія зв'язку – фізичне середовище, по якій здійснюється передача високочастотних сигналів від передавача до приймача.
Лінійна частина прийомного пристрою забезпечує посилення сигналу до
рівня, необхідного для роботи демодулятора; частотну й тимчасову селекцію
сигналу з перешкод.
Демодулятор здійснює операції, зворотні модулятору.
У декодері виконуються операції, зворотні операціям кодера. Завдання декодера джерела полягає в тому, щоб перетворити цифровий сигнал у форму
зручну для споживача, одержувача інформації.
4.Основні інформаційно-технічні характеристики СПИ
4.1 Вірогідність передачі інформації
Вірогідність - ступінь відповідності прийнятого повідомлення переданому
повідомленню. Вона оцінюється різним образом при передачі дискретних і безперервних повідомлень. При цьому дискретними повідомленнями будемо називати такі, які описуються дискретними функціями часу й формуються з обмеженого набору елементарних повідомлень - алфавіту. Безперервні повідомлення
описуються безперервними функціями часу (наприклад, мова, музика). При
передачі дискретних повідомлень вірогідність оцінюється ймовірністю помилки.
Нехай nпер – кількість переданих дискретних елементів, nпр – кількість прийнятих
елементів
,
- кількість правильно прийнятих повідомлень,
- кількість помилково прийнятих повідомлень.
Будемо кількісно оцінювати вірогідність переданої інформації кількістю
помилково прийнятих повідомлень.
Частість помилки
. Якщо nпр →  , kч  pе , pe - імовірність по-
милки. Звичайно в системі передачі необхідно забезпечити
pe =
…10-12, pправ  1  ре .
При передачі безперервних повідомлень вірогідність оцінюється середньоквадратичним відхиленням прийнятого повідомлення від переданого
 2 (t ) .
Нехай передане повідомлення x  t  , а прийнято (t) .
Тоді
  t 
- потужність завади на виході демодулятора.
Відносна середньоквадратична помилка відтворення повідомлення
 
2
Звичайно в системах зв'язку
  t 
x t 

.
 2  1...10% .
4.2 Завадостійкість передачі інформації
Завадостійкість - здатність системи забезпечувати задану вірогідність передачі інформації при впливі перешкод.
Абсолютне значення потужності перешкоди не може характеризувати завадостійкість системи, тому вводять відносну величину відносини потужності
сигналу до потужності перешкоди на вході:
- це співвідношення с/ш за потужності.
Далі будують функціональні залежності вірогідності передачі від співвідношення с/ш на вході
- імовірність бітової помилки,
- середньоквадратична помилка відтворення.
Ці функції дають можливість кількісно оцінювати якість системи й зіставляти їх між собою. Найкращої є та система, яка при однаковій вірогідності вимагає мінімального співвідношення с/ш на вході.
4.3
Швидкість передачі інформації
Швидкість передачі – кількість інформації, що передається по системі в
одиницю часу. Покладемо, що потоки інформації описуються эргодичними процесами:
де T - часовий проміжок (с),
і- кількість інформації (біт).
Якщо в каналі зв'язку відсутні завади, то кількість корисної інформації, що
генерує джерело, повністю доставляється одержувачеві без втрат. Якщо в каналі
присутні перешкоди, то частина інформації, що генерується джерелом, втрачається на виході. Споживачеві буде доставлена частина інформації, тому, коли
говорять про швидкість передачі R, то при цьому розуміють швидкість одержання корисної інформації споживачем.
Існують поняття інформаційної й технічної швидкості. Інформаційна швидкість оцінюється в
, а технічна – швидкістю передачі символів у секунду.
Якщо Tс - тривалість переданого символу, то ширина смуги пропущення
системи при АМ і ФМ
4.4
, при частотній модуляції
.
Пропускна здатність каналів зв'язку
Коли проектують будь-які системи зв'язку, виникає питання:«C якою же максимальною швидкістю можна передавати інформацію?»
Максимально можлива швидкість передачі по каналі зв'язку Rmax називається пропускною здатністю каналу зв'язку й позначається буквою С.
Пропускна здатність обчислюється по формулах Шеннона, які будуть розглянуті в наступних лекціях.
Висновки
Таким чином в лекції розглянуті питання застосування інформаційних систем в сучасному світі , класифікація систем передачі інформації за ознаками
призначення, розміщення та діапазон робочих частот . Наведена узагальнена
структурна схема системи передачі інформації , наданий опис функцій окремих
блоків системи. Розглянуті основні інформаційно-технічні характеристики систем передачі інформації .
Тестові запитання
1. Якою з формул визначається вірогідність передавання дискретних повідомлень?
1) pe 
nпом
nзаг
2) pe 
nпом
nправ
3) pe 
nзаг
nпом
4) pe 
nзаг
nправ
2. Якою з формул визначається потужність завади на виході демодулятора
приймача неперервних повідомлень?
T
^
1)  (t )  lim  [ x(t )  x(t )]dt
2
T 
0
^
1T
[
x
(
t
)

x(t )]2 dt
2)  (t )  lim

T  T 0
2
^
1T 2

(
t
)

lim
[ x (t )  x 2 (t )]dt
3)

T  T 0
2
T
^
1
1
2

(
t
)

lim
[
x
(
t
)

x
(
t
)]
dt
4)
T  T 
0
2
3. Якою з формул визначається вірогідність передавання неперервних повідомлень?
1)  
 (t )
x(t )
2)
3)  
 2 (t )
x 2 (t )
4)
4. Який з діапазонів радіочастот використовують супутникові системи
зв’язку на геостаціонарних супутниках?
1)
0,1 ... 1 ГГц
2)
0,03 ... 0,06 ГГц
3)
4 ... 14 ГГц
4)
0,3 ... 5 ГГц
5.Який з діапазонів радіочастот використовують тропосферні системи
зв’язку?
1)
0,1 ... 1 ГГц
2)
0,3 ... 0,06 ГГц
3)
4 ... 14 ГГц
4)
0,5 ... 5 ГГц
6. Який з діапазонів радіочастот використовують іоносферні системи
зв’язку?
1)
0,1 ... 1 ГГц
2)
0,03 ... 0,06 ГГц
3)
4 ... 14 ГГц
4)
0,3 ... 5 ГГц
7. Який з діапазонів радіочастот використовують стільникові системи
зв’язку?
1)
0,1 ... 1 ГГц
2)
0,9 ... 1,8 ГГц
3)
1,8 ... 2,4 ГГц
4)
4 ... 14 ГГц
8. Яка максимальна дальність тропосферного зв’язку?
1) 600 ... 800 км
2) 800 ... 1000 км
3)
1000 ... 1200 км
4)
1200 ... 1400 км
9. Який з діапазонів радіочастот використовують оптичні (лазерні) системи
зв’язку?
1)
109 ... 1011 ГГц
2)
1011 ... 1013 ГГц
3)
1013 ... 1015 ГГц
4)
1015... 1017 ГГц
10. Який з діапазонів радіочастот використовують радіорелейні системи
зв’язку?
1)
3 ... 10 МГц
2)
30 ... 100 МГц
3)
3 ... 10 ГГц
4)
30 ... 100 ГГц
ЛЕКЦІЯ 2
Інформаційні характеристики дискретних і неперервних повідомлень
Мета – вивчення питань опису кількості інформації в повідомленнях, опис основних інформаційних характеристик джерел дискретних і неперервних повідомлень. В лекції будуть розглянуті наступні питання:
1.
Кількість інформації в повідомленні
2.
Джерело дискретних повідомлень і його ентропія
3.
Джерело неперервних повідомлень і його ентропія
4.
Кількість інформації в повідомленні.
1.Кількість інформації в повідомленні
Інформація – сукупність відомостей про яку-небудь подію, об'єкт або процес.
Інформація існує у вигляді повідомлень, що мають різну фізичну природу й різні
форми подання. Всі повідомлення можна підрозділити на:

дискретні;

неперервні.
Дискретні повідомлення складаються з окремих елементарних повідомлень,
які вибираються з відповідного алфавіту. Одна й та ж кількість інформації може
міститься в повідомленнях різної природи.
Покладемо, що джерело повідомлень генерує елементарні повідомлення
 xi  , i  1, M .
Відомі апріорні ймовірності повідомлень p  xi  , які становлять повну групу подій
M
 p  xi   1.
i 1
Кількість інформації в повідомленні збільшується зі зменшенням імовірності
його передачі.
Кількість інформації в повідомлені може бути визначена за формулою:
.
Проаналізуємо, які значення й кількість інформації набуває в крайніх випадках.
При p  xi  →0
,
При
.
Останній результат суперечить здоровому глузду, оскільки повідомлення про
заздалегідь відому подію з p  xi   1 не має ніякої інформації. Тому ввели логарифмічну міру кількості інформації.
при
,
при
.
Логарифмічна міра добре відображає адитивність інформації.
Припустимо, що складне повідомлення складається з елементів
x   xi , xk , xe  .
Відомі імовірності
p( xi ), p( xk ), p( xe ) .
Імовірність складного повідомлення
p  x   p( xi )  p( xk )  p( xe )
.
У теорії інформації використовують логарифм із підставами е й 2.
log e  ln , log 2 .
Покладемо, що є два повідомлення
та
й відомі їхні апріорні ймовірності
тоді
.
,
,
.
Якщо
,
.
За одиницю кількості інформації приймається кількість інформації, що втримується в повідомленні про одному із двох рівноможливих подій. Вона називається
двійковою одиницею або біт.
2 .Джерело дискретних повідомлень і його ентропія
Покладемо, що ми маємо джерело дискретних повідомлень
Задано набір апріорних імовірностей передачі повідомлень р ( xi ) .
Будемо вважати, що повідомлення джерела статистично незалежні, тобто ймовірності їхньої появи описуються одномірними безумовними ймовірностями
.
m
При цьому  p ( xi )  1 .
i 1
Можемо визначити кількість інформації, що втримується в кожному повідомленні джерела
.
Середня кількість інформації в одному повідомлені
Воно обчислюється виходячи з апріорних знань про ймовірність появи окремих повідомлень. Ця величина характеризує невизначеність стану джерела, тобто
невизначеність того, яке з повідомлень з'явиться на його виході в розглянутий
момент часу. Назвемо цю величину ентропією .
Покладемо, що є двійкове джерело повідомлень
із апріорними ймовір-
ностями p ( x1 ), p( x2 ) .
2
H ( x)    p( xi )log p( xi )   p( x1 )log p( x1 )  p( x2 )log p( x2 ) 
i 1
  p( x1 )log p( x1 )  [1  p( x1 )]log[1  p( x1 )] .
Побудуємо графік ентропії
у функції від
.
H ( x)
p  x1   0 H  x   0
1
p  x1   1 H  x   0
p  x1  
0
1
H  x  1
2
1
12
H  x  завжди позитивно й досягає максимуму при
Видно, що величина
p( x1 )  p( x2 ).
Покладемо, що кількість повідомлень m. Тоді
H max  x   log m .
З порівняння останніх двох виражень видно, що зі збільшенням кількості повідомлень джерела його ентропія зростає пропорційно log m . Звідси видно, що
кількість інформації, що втримується в одному повідомленні джерела, росте зі
збільшенням розміру алфавіту.
H 0  x  - ентропія нульового порядку, що`1 характеризує джерело статистичних незалежних рівномірних повідомлень.
Якщо p  xi   const
i  1, m , H 0  x   log m .
Обчислимо ентропію джерела не рівноімовірних незалежних повідомлень
Коли,
m
Н1  x     p  xi  log p  xi  .
i 1
Ентропію джерела не рівноімовірних попарно залежних повідомлень, позначимо
, дамо розрахункову формулу
m m



Н 2  x      p xi , x j log p xi / x j
i 1 j 1

.
Н l  x  - характеризує джерело, у якого простежується зв'язок між ℓ – повідомленнями. Можна довести що
Н 0  x   Н1  x   Н 2  x   Н 3  x   ...Н l  x  .
Таким чином, зі збільшенням статичних зв'язків між повідомленнями середня
кількість інформації, що втримується в одному повідомленні, зменшується.
Надмірність повідомлень джерела повідомлень можна обчислити таким чином
.
Обчислимо надмірність джерела російської мови. Кількість символів алфавіту
m=32, тобто у випадку рівноімовірніх символів
У російській мові простежуються статистичні зв'язку між 8 буквами, тобто
при ℓ=8
.
Тоді надмірність
.
Тобто при відповідному кодуванні блоками можна на 60% скоротити російські
тексти, але цей шлях дуже складній, бо потребує введення спеціальних конструкцій (умовних скорочень) і має обмежені можливості. То того ж надмірність дає
змогу корегувати помилки в каналах з завадами.
3.Джерело неперервних повідомлень
Покладемо, що ми маємо джерело безперервних повідомлень x(t ) , що описується щільністю ймовірності w(x).
Оскільки всі повідомлення описуються функцією з обмеженим спектром, вони
можуть бути дискретизовані за часом відповідно до теореми Котельникова й ми
можемо передавати не самі повідомлення, а їхнього значення в крапках відліку
Для однозначного відтворення необхідно дотримуватись умови
,
Де
верхня частота спектра повідомлення,
- частота дискретизації.
В реальних системах зв'язку
FД   FВ ,   2,5...5 .
Доцільно передавати не всю шкалу значень рівнів сигналів . Для цього крім
дискретизації за часом здійснюється квантування за рівнями m:
,
.
Імовірність влучення значення xi в інтервал
.
Тоді ентропія одного відліку квантованого повідомлення
При
Якщо
,
.
h( x) - диференціальна ентропія, що залежить від статистичних властивостей
джерела,
- залежить від кількості рівнів квантування і визначає технічну похибку
цифрових систем передавання повідомлень, яка не залежить від статистичних
властивостей повідомлень.
Висновки
В лекції розглянутий сенс терміну «інформація», обґрунтовано введення логарифмічної міри кількості інформації, як міри невизначеності джерела (середньої
кількості інформації на одне повідомлення джерела), виведені формули для
обчислення ентропії джерел незалежних і залежних дискретних і неперервних
повідомлень.
Тестові запитання
1. Якою з формул визначається кількість інформації в дискретному повідомленні?
1) I ( xi ) 
1
p( xi )
2) I ( xi )  log p( xi )
3) I ( xi )   log p( xi )
4) I ( xi )   p ( xi )
2. Повідомлення з якою імовірністю передачі містить одну двійкову одиницю
інформації (біт)?
1) p( xi )  1
2) p ( xi )  0
3) p ( xi )  0,5
4) p( xi )  0,75
3. Якою з формул визначається середня кількість інформації в повідомленні
джерела дискретних незалежних повідомлень?
m
1) I ( xi )   log p( xi )
i 1
m
2) I ( xi )   p( xi )log p( xi )
i 1
m
3) I ( xi )   p( xi )log p( xi )
i 1
m
4) I ( xi )   p( xi )
i 1
4. Якою з формул визначається ентропія джерела дискретних незалежних повідомлень?
m
1) H ( x)   p( xi )
i 1
m
2) H ( x)   p( xi )log p( xi )
i 1
3) H ( x)  
m
 p( x )log p( x )
i
i 1
i
m
4) H ( x )   log p( xi )
i 1
5. Якою з формул визначається ентропія джерела попарно залежних повідомлень?
m
1) H ( xi , x j )   p( xi )log p( xi )
i 1
m
m
2) H ( xi , x j )   p( xi , x j )log p( xi , x j )
i 1 j 1
3) H ( xi , x j ) 
m
m
 p( x , x )log p( x | x )
i 1 j 1
m
m
i
j
i
j
4) H ( xi , x j )   p( xi , x j )log p( xi | x j )
i 1 j 1
6. Якою з формул визначається надмірність джерела дискретних повідомлень?
1)   1  H o ( x)
H l ( x)
2)   1 
H l ( x)
H o ( x)
3)   H l ( x)  H o ( x)
4)   H o ( x)  H l ( x)
7. Якою з формул визначається ентропія джерела неперервних повідомлень?
8. Якою з формул визначається диференціальна ентропія джерела неперервних
повідомлень?
9. Чому дорівнює ентропія джерела дискретних рівно імовірних незалежних
повідомлень, якщо ємність алфавіту m = 64?
1) H  4 біт
2) H  5 біт
3) H  6 біт
4) H  7 біт
10. Джерело дискретних незалежних повідомлень формує 4 повідомлення з
апріорними ймовірностями p1  0,5 ; p2  25 ; p3  p4  0,125 . Чому дорівнює
ентропія джерела H ?
1)
Н=1,5 біт
2) Н=1,75 біт
3) Н=2,0 біт
4) Н=2,25 біт
Практичне заняття №1
«Інформаційні характеристики дискретних і когерентних повідомлень»
Мета - з використанням вивченого теоретичного матеріалу навчитися обчислювати кількість інформації, містяться в повідомленнях різної фізичної природи, оцінити ентропію джерел різних дискретних і безперервних повідомлень.
Спочатку приводяться приклади рішення різних практичних завдань, потім формуєте умови задач для сасостоятельного рішення, причому числові значення
рішеня завдань дано в 10 варіантах.
Приклад 1. Визначити ентропію повідомлення із 6 літер, якщо загальна
кількість букв в алфавіті дорівнює 32 і всі повідомлення рівноімовірні.
Розв’язання. Загальна кількість шестилітерних повідомлень m  32 6 .
Використовуючи формулу для визначення ентропії рівноімовірних повідомлень, отримаємо
біт
.
повід.
Приклад 2. Вимірювана величина x змінюється в межах від x0 до x0  b і
H ( X ) log m  log326  6log32  30
розподілена по закону рівної імовірності. Знайти диференціальну ентропію величини x , якщо b дорівнює 32 нормованим одиницям.
Розв’язання. Закон рівної імовірності можна аналітично подати у вигляді
1
при x0  x  x0  b,

w( x)   b

 0 при x  x0 и x  x  b.
Ентропія дорівнює
x b

1 0
1
h( x)    w( x)log w( x)dx    log dx  log b  log32  5 біт.
b x0
b

Приклад 3. Закодувати оптимальним статистичним кодом за схемою Шеннона-Фано ансамбль повідомлень джерела {xi}, якщо повідомлення статистично
незалежні та задані апріорні імовірності їх появи на виході джерела p(хі).
p (х1)= 0,1 ;p (х2) = 0,2; p (х3 ) = 0,05; p (х4) = 0,25; p (х5) = 0,1; p(х6) = 0,05;
p(х7) = 0,15; p (х8) = 0,1.
Розв’язання. Кодування за методом Шеннона-Фано здійснюється у такий
спосіб. Всі повідомлення записуються в таблицю в порядку зменшення їх
імовірності. Потім вся сукупність повідомлень розбивається на дві приблизно
рівні групи. Всім повідомленням верхньої групи приписується перший кодовий
символ “1”, а повідомленням нижньої групи – символ “0”. Потім кожна група
аналогічно розбивається на підгрупи за можливістю з однаковими імовірностями, при цьому верхнім підгрупам в обох групах приписується символ “1” (другий символ кодової комбінації), а нижнім – символ “0”. Ця процедура
здійснюється доти, доки в кожній підгрупі не залишиться по одному повідомленню. Процес кодування наведений нижче.
Повідомлення
1
х4
х2
х7
х1
х5
х8
х3
х6
р
(хі)
2
0,25
0,2
0,15
0,1
0,1
0,1
0,05
0,05
Кодування
3
11
10
011
010
0011
0010
0001
0000
Кодова
комбінація
4
11
10
011
010
0011
0010
0001
0000
Кількість
знаків ni
5
2
2
3
3
4
4
4
4
I (xi)
6
2,0
2,33
2,745
3,33
3,33
3,33
4,33
4,33
Жодна коротка кодова комбінація не має бути початком більш довгої. Середня довжина кодової комбінації обчислюється за формулою
g
n   ni p( xi )  2,85.
i 1
При оптимальному двійковому кодуванні ентропія
g
H ( x)    p( xi ) log p( xi )  2,57 біт.
i 1
При розв’язанні задачі завжди повинна виконуватись умова
H ( x)   n .
Приклад 4. Джерелом інформації є вимірювальний датчик випадкового
процесу X , рівномірно розподіленого в межах від 0 до 256 нормованих одиниць.
Визначити кількість інформації, яку отримують в результаті одного заміру значення цього випадкового процесу, якщо похибка вимірювання розподілена по
нормальному закону і середнє квадратичне значення похибки   4.
Розв’язання. Диференціальна ентропія випадкової величини X
256
256
1
1
log
dx  8 біт.
256
256
0
0
Диференціальна ентропія похибки вимірювання
h( X )    W ( X ) log W ( X )dx   
h( )  log 2e  log 2e 4  log 4 2e  4,04 біт.
Кількість інформації, яку отримують в результаті одного виміру, визначається різницею між ентропією самої величини і ентропією похибки
I ( X )  h( x)  h( )  8  4,04  3,96 біт.
Приклад 5. Повідомлення складені із рівноімовірного алфавіту, який
містить m  128 якісних ознак (тобто можливих елементарних символів). Визначити, чому дорівнює кількість символів в прийнятому повідомленні, якщо відомо, що воно містить 42 біта інформації, та чому дорівнює ентропія цього повідомлення.
Розв’язання. Кількість символів n в складному повідомленні визначається
з формули
I  n log m  n log128  42 біт.
42
Тобто n 
 6.
log128
Ентропія повідомлення дорівнює ентропії джерела
H  log m  log128  7 біт/символ.
Приклад 6. В повідомленнях, які складаються із п’яти різних символів,
відомі імовірності їх появи: p1  0,7 , p2  0,2 ; p3  0,08 ; p4  0,015 ; p5  0,005 .
Всього в повідомленні прийнято 40 символів. Визначити кількість інформації в
цьому повідомленні. Визначити кількість інформації в повідомленні з такою ж
кількістю знаків, якщо символи рівномірні.
Розв’язання. Кількість інформації в повідомленні визначається за формулою
5
I  nH ( x)  n( pi log pi )  40(0,7log 0,7  0,2log 0,2  0,08log 0,08 
i 1
0,015log0,015  0,005log0,005)  40  1,245  49,8 біт.
У випадку, коли символи рівномірні, кількість інформації в повідомленні
I  n log m  40  log5  40  2,32  92,8 біт.
Приклад 7. Визначити обсяг і кількість інформації у тексті «Ще не вмерла
України і слава і доля.», переданому стандартним 7-значним телеграфним кодом.
Імовірності букв українського алфавіту наведені у додатку 4.
Розв’язання. Кількість прийнятих символів, включаючи пробіл, n  35 .
Обсяг інформації
Q  n  k зн  35  7  245 символів.
Кількість інформації:
а) для рівноімовірного алфавіту, який складається із 32 букв (включаючи
пробіл і апостроф)
I  nH max  35  log32  175 біт;
б) для нерівномірного алфавіту (не враховуючи статистичні зв’язки між
буквами і пробіл)
I  nH1 ( x)  35  4,577  160,195 біт.
Приклад 8. Відомо, що одне із М можливих повідомлень, які передаються
рівномірним двійковим кодом, містить 3 біти інформації. Визначити, чому
дорівнює М.
Розв’язання. Відомо, що кількість біт інформації в повідомленні визначається формулою:
I  log 2 M  3 .
3
Звідси M  2  8 .
Приклад 9. Алфавіт джерела складається з трьох букв А, В, С. Скласти
максимальну кількість повідомлень, комбінуючи по три букви в повідомленні.
Яка кількість інформації міститься в одному такому повідомленні?
Розв’язання. Загальна кількість можливих повідомлень дорівнює
N  mn ,
де m – кількість первинних символів алфавіту;
n – кількість символів в повідомленні;
N  33  27 .
Можливі повідомлення:
AAA
AAB
AAC
BAA
BAB
BAC
CAA
CAB
CAC
ABA
BBA
CBA
ABB
BBB
CBB
ABC
BBC
CBC
ACA
BCA
CCA
ACB
BCB
CCB
ACC
BCC
CCC
Кількість інформації в повідомленні у випадку їх передавання з рівними
ймовірностями
I  log N  log 27  4,755 біт.
Задачі для самостійного розв’язання
Задача 1. Джерело інформації видає символи з ансамблю X  xi (i  1, 4) з
імовірностями р(хi). Знайти кількість інформації, що міститься в кожному з символів джерела при їх незалежному виборі (джерело без пам’яті). Обчислити
ентропію і надмірність заданого джерела.
Номер варіанта
Вихідні
дані
0
1
2
3
4
5
6
7
8
9
р(х1)
0,2
0,15
0,05
0,1
0,55
0,45
0,4
0,5
0,5
0,45
р(х2)
0,3
0,35
0,1
0,2
0,3
0,3
0,25
0,2
0,4
0,25
р(х3)
0,4
0,45
0,15
0,25
0,1
0,15
0,2
0,1
0,05
0,2
р(х4)
0,1
0,05
0,7
0,45
0,05
0,1
0,15
0,2
0,05
0,1
Задача 2. Закодувати оптимальним двійковим кодом за схемою ШеннонаФано ансамбль повідомлень X  xi (i  1,8) , які задані апріорними імовірностями р(хi). Знайти ентропію ансамблю і середнє число знаків в кодових
комбінаціях. Оцінити виграш оптимального коду в порівнянні з рівномірним.
Вихідні
дані
р(х1)
р(х2)
р(х3)
р(х4)
Номер варіанта
0
1
2
3
4
0,25
0,2
0,15
0,1
0,2
0,15
0,1
0,05
0,15
0,1
0,05
0,25
0,3
0,2
0,1
0,05
0,4
0,15
0,1
0,15
5
0,2
0,1
0,2
0,1
6
7
8
9
0,12
0,16
0,22
0,08
0,04
0,16
0,03
0,17
0,05
0,10
0,15
0,20
0,17
0,13
0,08
0,02
р(х5)
р(х6)
р(х7)
р(х8)
0,05
0,10
0,10
0,05
0,1
0,3
0,05
0,05
0,15
0,2
0,05
0,05
0,1
0,1
0,1
0,05
0,05
0,05
0,05
0,05
0,15
0,15
0,05
0,05
0,1
0,2
0,06
0,06
0,06
0,14
0,15
0,25
0,20
0,15
0,10
0,05
0,1
0,2
0,15
0,15
Задача 3. Визначити ентропію повідомлень із к букв, якщо кількість букв в
алфавіті дорівнює m і всі повідомлення рівноімовірні.
Вихідні
дані
к
m
Номер варіанта
0
1
2
4
5
6
16
32
64
3
7
128
4
8
256
5
8
256
6
7
128
7
6
64
8
5
32
9
4
16
Задача 4. Визначити диференціальну ентропію неперервного повідомлення, розподіленого по нормальному закону, якщо його середня потужність,
виражена в нормованих одиницях, дорівнює  2 .
Вихідні
дані

2
Номер варіанта
0
1
2
10
20
30
3
40
4
50
5
60
6
70
7
80
8
90
9
100
Задача 5. Вимірювана величина х змінюється в межах від х0 до х0 + в і
розподілена по закону рівної імовірності. Знайти диференціальну ентропію величини x .
Вихідні
дані
в
Номер варіанта
0
1
2
3
10
20
30
40
4
50
5
60
6
70
7
80
8
90
9
100
Задача 6. Джерелом інформації є вимірювальний датчик випадкового
процесу х, рівноімовірно розподіленого в межах від 0 до m нормованих одиниць.
Визначити кількість інформації, яку отримують в результаті одного заміру значення цього випадкового процесу, якщо похибка вимірювання розподілена по
нормальному закону і середнє квадратичне значення похибки  .
Вихідні
дані
m

Номер варіанта
0
1
2
128 256
512
2
3
4
3
1024
5
4
2048
6
5
2048
7
6
1024
6
7
512
5
8
256
4
9
128
3
Висновки: У результаті вирішення чисельних прикладів 4 завдань підтверджені теоретичні положення про те, що: - з нового рядка максимальну ентропію
мають джерела дискретних повідомлень з рівномірним розподілом ймовірностей
повідомлень джерела;
- Інформація аддитивна, тобто її кількість в довгому повідомленні зростає зі
збільшенням числа елементарних повідомлень;
- Максимальну диференціальну енергію має джерело, безперервних повідомлень, миттєві значення які розподілені за нормальним законом.
ЛЕКЦІЯ 3
Передача інформації з дискретними і неперервними каналами зв'язку
МЕТА- Вивчити питання продуктивності джерел дискретних і неперервних
повідомлень, отримати розрахункові формули для обчислення швидкості передавання інформації дискретними та неперервними каналами без завад і з завадами,
розглянути методи оптимального кодування повідомлень, проаналізувати пропускну здатність дискретних і неперервних каналів зв'язку.
В лекції будуть розглянуті наступні питання:
1. Продуктивність джерела дискретних повідомлень
2. Швидкість передачі інформації дискретними каналами без завад. Оптимальне статистичне кодування
3. Швидкість передачі інформації і пропускна здатність дискретних каналів з
завадами
4. Пропускна здатність двійкового симетричного каналу зв'язку з перешкодами
5. Швидкість передачі інформації неперервними каналами з завадами. Пропускна здатність
6. Пропускна здатність неперервного каналу з нормальним білим шумом
7.
Пропускна здатність неперервного каналу при довільних спектрах сигна-
лів і завад.
1.Продуктивність джерела дискретних повідомлень
Розглянемо джерело дискретних повідомлень
,
, де m – об'єм алфавіту джерела,
Для такого джерела можемо визначити середню кількість інформації в повідомленнях (ентропію).
Джерело працює на інтервалі T і генерує за цей час кількість інформації
.
Швидкість видачі інформації джерелом, якщо процес ергодичний,
Якщо джерело видало n елементарних повідомлень, а тривалість повідомлень
 , тоді:
.
Визначимо максимальну продуктивність джерела
.
2.Швидкість передачі інформації з дискретних каналів без перешкод.
Оптимальне статистичне кодування
Якщо відсутні завади, то при узгодженні джерела з каналом швидкість передачі інформації дорівнює продуктивності джерела повідомлень:
,
де
- кількість символів джерела,
- кількість символів каналу.
Завданням статистичного кодування є максимізація швидкості передачі інформації з каналом зв'язку.
У цей час використовується двійкове кодування.
Щоб забезпечити максимальну швидкість передачі інформації каналом без завад, необхідно реалізувати оптимальне статистичне кодування (ОСК) повідомлень
джерела двійковим кодом. Можна довести, що для виконання ОСК необхідно
виконати правило:
, де ni - кількість символів у комбінації
двійкового коду.
Тобто кількість символів у кодовій комбінації повинне рівнятися кількості інформації в повідомленні, що кодується.
Існує ряд алгоритмів статистичного кодування. Основна мета всіх схем ОСК мінімізація середньої тривалості кодових комбінацій. Необхідно здійснити кодування таким чином, щоб повідомлення що, найбільш часто зустрічаються кодува-
лися найбільш короткими комбінаціями. Найбільш відомі схеми кодування Шеннона-Фано й Хаффмена. Характерно те, що в таких схемах попередньо всі повідомлення записуються в порядку зменшення їхніх імовірностей. Кодування виконується так, щоб жодна коротка комбінація не була початком більш довгої. Саме ця
властивість дає можливість декодування.
Кодові символи
xi
p ( xi )
I
II
x2
0,5
1
x3
0,25
0
1
x1
0,125
0
0
x4
0,125
0
0
III
Кодові
комбінації
ni
біт
1
1
1
01
2
2
1
001
3
3
0
000
3
3
Таблиця 1.1- Схема кодування Шеннона - Фано.
Оптимальне статистичне кодування забезпечує передачу інформації з каналів
зв'язку з максимальною швидкістю. Недолік: перешкоди або збої в апаратурі,
спотворення одного символу ведуть до спотворення всіх інших комбінацій.
Щоб усунути цей недолік необхідно вводити інтервали між кодовими комбінаціями. Величина захисного інтервалу між комбінаціями повинна бути кратна
тривалості символу й не менш тривалості одного символу. Це знижує достоїнства
оптимального коду.
3.Швидкість передачі інформації й пропускна здатність дискретних каналів з завадами
Нехай джерело генерує повідомлення x
- апріорна імовірність
Оцінимо швидкість передачі інформації xi -вхід,
x  10101 - передане повідомлення
-вихід
варіанти прийнятих повідомлень.
Якщо відсутні завади, то мають місце однозначні переходи. Якщо завади присутні, то мають місце помилкові переходи.
Матриця перехідних імовірностей:
.
Завжди імовірність переходу
Вона показує ймовірність переходу переданого символу xi в прийнятий
.
Максимальне значення перехідних імовірностей лежить на головній діагоналі
матриці –
.
Кількість інформації в переданому повідомлені визначається як:
I  xi    log p  xi  .
Кількість інформації у прийнятому символі
.
У випадку відсутності помилок у передачі
.
Аналізуючи прийняті повідомлення, можемо побудувати матрицю апостеріорних імовірностей.
- апостеріорна імовірність.
, якщо
Завжди
прийнято вірно
Ця величина визначає, яку кількість інформації необхідно ще одержати, щоб
повідомлення стало вірогідним. Така кількість інформації була загублена в каналі
зв'язку при передачі повідомлення xi .
Кількість інформації, отримана одержувачем:
Взаємна інформація
- кількість переданої інформації, що міститься в
xi при прийомі :
Нас цікавить середня кількість інформації, доставленої на вихід каналу одним
прийнятим повідомленням:
H  x  - ентропія джерела, тобто середня кількість інформації, що міститься в
кожному переданому символі.
- ентропія втрат, тобто середня кількість інформації, що втрачається
при передачі одного символу.
- середня кількість інформації, що доставляється споживачеві
при прийманні одного повідомлення.
- суміш корисного повідомлення із шумом.
- ентропія вихідного сигналу, середня кількість інформації, що міститься
в одному вихідному символі (суміші сигналу з завадою).
- ентропія шуму, середня кількість інформації, що додається шумом.
m
H  x     log p  xi   p  xi  ,
i 1
За час T одержуємо кількість інформації:
Швидкість передачі інформації:
- пропускна здатність.
Значення
залежать від співвідношення сигнал/шум, способу обробки
сигналу, виду сигналу, виду канального кодування й матриці перехідних імовірностей.
4.Пропускна здатність двійкового симетричного каналу зв'язку з завадами
Є x1 й x2 , p  x1  і p  x2  .
x1
x̂1
x2
x̂2
Канал називається симетричним, якщо ймовірності помилкових переходів рівні між собою.
Середня імовірність помилки
Пропускна здатність
,
max  H  x   log m  1, m  2 .
Таким чином пропускна здатність
Пропускна здатність у такому випадку залежить тільки від імовірності помилки й стає рівної нулю, якщо ймовірність помилки pe  0,5.
C
1

0
1
1
2
pe
Графік залежності пропускної здатності від імовірності помилки.
5.Швидкість передачі інформації неперервними каналами з завадами.
Пропускна здатність
Маємо неперервний канал зв'язку, у якому передається неперервне повідомлення (сигнал) x(t ) . У цьому каналі діє аддитивна завада n(t ) . У результаті на
виході
прийомного
пристрою
ми
маємо
суміш
. Розглянемо часовий інтервал T. На ньому ми передали кількість
інформації
, тоді.
Будь-яке неперервне повідомлення, що існує на кінцевому інтервалі T і має
обмежений спектр FB можна замінити сукупністю дискретних відліків.
m  2  FB  T  1  2  FB  T - кількість відліків.
Швидкість передачі
.
де
- диференціальна ентропія одного відліку.
C  max R
6. Пропускна здатність неперервного каналу з нормальним білим шумом
На виході каналу маємо суміш сигналу із шумом
,
n  t  - нормальний білий шум, який описується одномірним законом розподілу ймовірностей
.
Автокореляційна функція K   
N0
   ,
2
 Вт 
 - щільність потужності фізичного спектра.
Гц


де N 0 
Можна показати, що
Максимальну ентропію має джерело нормального білого шуму, значення ентропії якого дорівнює
h  n   log


2 e n  log


2 ePш ,
де  n - середньоквадратичне відхилення миттєвих значень, що дорівнює
 n2  Pш - потужність шуму.
Якщо шум існує в смузі F , то середня потужність шуму
Pш  N 0 F .
Пропускна здатність
C  max R ,
сигнал на виході каналу.
Тому що n  t  - нормальний білий шум, можна довести, що максимум
буде в тому випадку, якщо
також буде процесом типу нормального білого
шуму. У цьому випадку
,
.
Процес x(t ) також повинен бути типу нормального білого шуму.
C  2 F{log  2 e  Pc  Pш    log  2 ePш } 


 2 F log
2 e  Pc  Pш 
2 ePш
 F log[
Pc
 1]
Pш
P
 бит
- формула Шеннона.
C  F log  c  1 ,
P
с
 ш 
 Pc

 1 ,
 N0 F 
Якщо F   , то C  F log 
 P

lim C  lim F log  c  1 .
F 
F 
 N0 F 
Pc
P
 z, F  c
N0 F
N0 z ,
Позначимо
Тоді:
Pc
log  z  1 
z 0 N 0 z
lim C  lim
F 
 lim
ln  z  1
Pc
P
log e
 1, 443  c
N0
z
N0 .
Значення пропускної здатності прагне до постійної величини, тому що потужність сигналу Pc не залежить від ширини спектра й смуги пропускання, а потужність шуму прямопропорційна смузі пропускання.
7.
Пропускна здатність неперервного каналу зв'язку при довільних спектрах сигналів і завад.
Формула Шеннона була виведена за умови, що канал зв'язку передається шу-
моподібний сигнал типу білого шуму:
Більш загальний вид формули Шеннона
 P

C  F log  kc c  1 ,
 Pш

де kc - коефіцієнт форми сигналу.
Для прямокутних сигналів kc  0,7 ,
для шумоподібних сигналів kc  1 ,
Для синусоїдального сигналу kc  0,3 .
Якщо спектральна щільність потужності сигналу Gc  f  , а завади Gш  f  ,
можна одержати формулу для випадку нерівномірних спектрів сигналів і завад.
Розглянемо нескінченно вузьку смугу частот у межах f min ... f max , тобто
.
Тоді
Максимум С досягається у випадку, якщо Gc  f   Gш  f   const у всьому
діапазоні частот.
На підставі цього можна будувати алгоритм функціонування адаптивних систем зв'язку й радіолокації.
Висновки
В лекції розглянуті методи розрахунків швидкості передавання інформації
дискретними і неперервними каналами зв'язку, показано, що максимальна швидкість передавання інформації досягається при узгодженні інформаційних характеристик джерел інформації і каналів зв'язку.
Тестові запитання
1. Якою з формул визначається швидкість передавання інформації по
дискретному каналу без завад?
1) R 
I ( xi )
2) R 
H ( x)


3) R  I ( x)  
4) R  H ( x)  
2. Виконання якої з ознак підтверджує правильність оптимального статистичного кодування?
_
1) ni  H ( x)
_
2) ni  H ( x)
_
3) ni  H ( x)
3. Якою з формул визначається середня кількість інформації, яка втрачається при передаванні по дискретному каналу з завадами одного повідомлення?
m
1) H ( x | xˆ )   p( xi )log p( xi )
i 1
^
m
m
^
2) H ( x | x)   p( xi , x j )log p( xi | x j )
i 1 j 1
m
^
m
^
^
3) H ( x | x)   p( xi , x j )log p( xi , x j )
i 1 j 1
m
^
m
^
^
4) H ( x | x)   p( xi , x j )log p( xi | x j )
i 1 j 1
4. Якою з формул визначається середня кількість інформації на одне повідомлення на виході дискретного каналу з завадами,
^
^
^
^
1) I ( x, x)  H ( x)  H ( x | x)
2) I ( x, x)  H ( x)  H ( x | x)
^
3) I ( x, x)  H ( x)
^
^
4) I ( x, x)  H ( x | x)
5. Якою з формул визначається швидкість передавання інформації по
дискретному каналу з завадами?
^
1) R 
H ( x)  H ( x | x)

^
2) R 
H ( x)  H ( x | x)

3) R 
H ( x)
4) R 
H ( x | x)

^

6. Яка з формул визначає пропускну здатність двійкового симетричного
каналу з завадами?
1
1) C  [ pe log pe  (1  pe )log(1  pe )]

1
2) C  [1  pe log pe  (1  pe )log(1  pe )]

1
3) C  [1  pe log pe  (1  pe )log(1  pe )]

1
4) C  [1  pe log pe  (1  pe )log(1  pe )]

7. Джерело дискретних незалежних рівноімовірних повідомлень використовує алфавіт m=32 і тривалість передавання кожного повідомлення   2 мкс.
Чому дорівнює продуктивність джерела?
1) R=1 Мбіт/с
2) R=0,5 Мбіт/с
3) R=1,5 Мбіт/с
4) R=2,5 Мбіт/с
8. По дискретному каналу без завад передаються повідомлення із ансамбля m=64, тривалість кожного повідомлення   1мс. Чому дорівнює пропускна
здатність каналу?
1) 5 кбіт/с
2) 6 кбіт/с
3) 5 Мбіт/с
4) 6 Мбіт/с
9. По дискретному каналу з завадами передаються повідомлення, кожне з
яких має тривалість   1мкс. Ентропія джерела H ( X )  8 біт , ентропія втрат
. Чому дорівнює швидкість передавання інформації по каналу?
1) 9 Мбіт/с
2) 8 Мбіт/с
3) 7 Мбіт/с
4) 6 Мбіт/с
10. По дискретному двійковому симетричному каналу з завадами передаються повідомлення, тривалість кожного з яких   2 мкс. Середня імовірність
помилки pe  103 . Чому дорівнює пропускна здатність каналу?
1) 490 кбіт/с
2) 495 кбіт/с
3) 500 кбіт/с
4) 505 кбіт/с
11. Яка з формул визначає пропускну здатність неперервного каналу з завадами?
^
1) C  2 F[h( x)  h( x | x)]
^
2) C  2 F[h( x)  h( x | x)]
3) C  2 Fh( x)
^
4) C  2 F[1  h( x)  h( x | x)]
12. Яка з формул називається формулою Шенона?
1) C  F ( Pc  1)
Pш
2) C  F log(
Pc
 1)
Pш
3) C  F log(
Pc
 1)
Pш
4) C  F log( Pc  Pш )
13. Яка з формул визначає пропускну здатність неперервного каналу
зв’язку з завадами при нескінченій ширині смуги пропускання?
1) lim C 
Pc
N0
2) lim C  1,443
Pc
N0
3) lim C  1,443
N0
Pc
N0
Pc
4) lim C 
14. Яка з формул визначає пропускну здатність неперервного каналу
зв’язку з завадами при довільних спектрах сигналу і завад?
1) C 
f max

[
f min
2) C 
Gc ( f )
 1]df
Gш ( f )
f max

log[
f min
3) C 
f max

log[
f min
4) C 
Gc ( f )
 1]df
Gш ( f )
f max

log
f min
Gc ( f )
 1]df
Gш ( f )
Gc ( f )
df
Gш ( f )
15. Чому дорівнює швидкість R передавання інформації по неперервному
каналу зв’язку, якщо задані ширина смуги пропускання
F=10 кГц, диференціальна ентропія виходу каналу
ціальна ентропія завади
, диферен-
?
1) 80 кбіт/с
2) 160 кбіт/с
3) 320 кбіт/с
4) 540 кбіт/с
16. Чому дорівнює швидкість R передавання інформації по неперервному каналу зв’язку, якщо задані ширина смуги пропускання канала F=100 кГц,
джерело продуцює повідомлення з рівноімовірним розподілом миттєвих значень
в
діапазоні
?
1) 200 кбіт/с
2) 400 кбіт/с
xmax  xmin  16 ,
а
диференціальна
ентропія
втрат
3) 600 кбіт/с
4) 800 кбіт/с
17. Чому дорівнює пропускна здатність неперервного каналу з завадами
типу нормального “білого” шуму, якщо задані ширина смуги пропускання
F=20 кГц, Pс=70 мВт, Pш=10 мВт?
1) С=20 кбіт/с
2) С=40 кбіт/с
3) С=60 кбіт/с
4) С=70 кбіт/с
18. Чому дорівнює пропускна здатність неперервного каналу з завадами
типу нормального “білого” шуму, якщо ширина смуги пропускання F=1 МГц,
потужність сигналу
Pс=1,5 .10-6 Вт, спектральна густина шуму N 0  1013
Вт/Гц?
1) С=1 Мбіт/с
2) С=2 Мбіт/с
3) С=4 Мбіт/с
4) С=8 Мбіт/
19. Чому дорівнює пропускна здатність неперервного каналу з завадами
типу нормального “білого” шуму, якщо задані ширина смуги пропускання
F=30 кГц, Pс=31 мВт, Pш=1 мВт?
1) С=120 кбіт/с
2) С=150 кбіт/с
3) С=180 кбіт/с
4) С=210 кбіт/с
20. Чому дорівнює пропускна здатність неперервного каналу з завадами
типу нормального “білого” шуму, якщо ширина смуги пропускання F=1 кГц,
потужність сигналу Pс=3 .10-6 Вт, спектральна густина шуму N0  109 Вт/Гц?
1) С=1 кбіт/с
2) С=2 кбіт/с
3) С=3 кбіт/с
4) С=4 кбіт/с
Практичне заняття №2
«Передача інформації з дискретним і безперервним каналах зв'язку»
Мета - з використанням вивченого теоретичного матеріалу навчитися обчислювати швидкість передачі дискретної і безперервної інформації по каналах
зв'язку, пропускну здатність дискретних та неприривного каналів зв'язку, ефективність узгодження джерел інформації з пропускною здатністю каналів. Спочатку приводяться приклади розв'язання типових практичних завдань, потім
формуєте умови задач для самостійного рішення, причому числові значення
для вирішення завдань дано в 10 варіантах.
Приклад 1
Повідомлення джерела формуються із символів алфавіту
m=8. Тривалість кожного символу  =10 мс. Визначити швидкість передавання
символів і швидкість передавання інформації.
Розв’язання. Швидкість передавання сигналів
1
1
симв
.
V 

100
 10  10 3
с
Швидкість передавання інформації
H log m
log 8
R 

 300 біт/с.


10  10 3
Приклад 2. Кількість символів алфавіту m=4. Імовірності появи символів
дорівнюють відповідно p( x1 )  0,15; p( x2 )  0,4; p( x3 )  0,25; p( x4 )  0,2 . Тривалості символів  1  3 с;  2  2 с;  3  5 с;  4  6 с. Чому дорівнює швидкість
передавання інформації при використанні таких символів?
Розв’язання.
m
R
H ( x)
_


 p ( xi )  log p( xi )
i 1
m

i 1
i

 p ( xi )
(0,15  log 0,15  0, 4  log 0, 4  0, 25  log 0, 25  0, 2  log 0, 2)

0,15  3  0, 4  2  0, 25  5  0, 2  6
(0, 41054  0,52877  0,5  0,64386) 2,08317

 0,563 біт / с.
0, 45  0,8  1, 25  1, 2
3,7

Приклад 3. Повідомлення передаються двійковим кодом (m=2). Тривалість символу 0  0  1с, тривалість символу 1  1  5 с. Визначити швидкість
передавання інформації для таких випадків: а) символи рівно імовірні і незалежні; б) імовірності появи символів p(0)  0,37 ; p(1)  0,63; в) p(0)  0,2 ;
p(1)  0,8 ; г) p(0)  0,02 ; p(1)  0,98 .
Розв’язання.
а) символи рівноімовірні і незалежні
H ( x)
log 2
1
R _ 
  0,33 біт / с ;
0,5  (1  5) 3

б)
2
R
H ( x)
_


 p( xi )  log p( xi )
i 1
2
 p( x )  
i 1
i

i
(0,37  log 0,37  0,63  log 0,63)
 0,27 біт / с.
0,37  1  0,63  5
(0,2  log0,2  0,8  log0,8)
R
 0,172 біт / с .
0,2  1  0,8  5
(0,02  log0,02  0,98  log0,98)
R
 0,024 біт / с .
0,02  1  0,98  5

в)
г)
Приклад 4. Чому дорівнює пропускна здатність бінарного симетричного
каналу, якщо в результаті дії завад 3% прийнятих повідомлень спотворені, а
джерело виробляє повідомлення із швидкістю V=10 символів за секунду?
Розв’язання.
1
1
1 
 (1  pe )  log
1  pe  log


pe
1  pe 
1
1
 10  (1  0,03log
 0,97 log
)  10  0,8056  8,056 біт / с.
0,03
0,97
c
Приклад 5. Чому дорівнює пропускна здатність симетричного каналу,
якщо джерело виробляє із швидкістю 10 символів за секунду повідомлення,
закодовані кодом з основою m=10, а імовірність помилкового приймання
pe  0,03 .
Розв’язання.
p


C  V  log m  pe  log e  (1  pe )  log(1  pe )  
m 1


0,03


 10  log10  0,03  log
 (1  0,03)  log(1  0,03)  
9


 10  3,3219  0,03  (8,2433)  0,97  (0,04390  30,320 біт / с.
Приклад 6. Повідомлення дискретного джерела кодуються рівномірним
двійковим кодом і передаються симетричним каналом зв’язку з завадами.
Визначити пропускну здатність каналу зв’язку за умови, що тривалість двійкових сигналів  = 1 мкс, середня імовірність помилки на один двійковий символ
pe  103 .
Розв’язання. Пропускна здатність двійкового симетричного каналу обчислюється за формулою
1
1
1 
С  1  pe log
 (1  pe )log


pe
1  pe 
1 
1
1 
 6 1  103 log 3  (1  10 3 )log

10 
10
1  10 3 
біт
 9,9  105
.
с
Приклад 7. Джерело, яке виробляє 4 повідомлення xi з апріорними
імовірностями p( x1 )  0,4 ; p( x2 )  0,3 ; p( x3 )  0,2 та p ( x4 )  0,1 підключене до
каналу передавання інформації, який має пропускну здатність C  1000 біт / с .
Передавання інформації здійснюється рівномірним кодом.
З якою швидкістю буде здійснюватися передавання інформації при
відсутності завад?
Розв’язання. Ентропія повідомлень визначається за формулою
4
H ( X )   p( xi )  log p( xi )  0,4log0,4  0,3log0,3  0,2log0,2 
i 1
0,1log0,1  1,848 біт / повідомл.
Швидкість передавання повідомлень Rп може бути визначена із виразу для пропускної здатності каналу
C
1000
Rп 

 500 повід / с .
H max ( X ) log 4
Таким чином швидкість передавання інформації
Ri  Rп  H ( X )  500  1,848  924 біт / с .
Приклад 8. Скільки в середньому можна передати літер українського
тексту в секунду по каналу без завад з пропускною здатністю C  2200 біт / с ,
якщо здійснюється ефективне статистичне кодування.
Розв’язання. При ефективному статистичному кодуванні середня довжина
кодової комбінації (середня кількість розрядів) дорівнює ентропії джерела. В
українській мові ентропія на одну букву з урахуванням всіх статистичних
зв’язків дорівнює приблизно H ( x)  2,2 біт / букву .
Тому середня швидкість передавання українського тексту:
C
C
RT 
  2200 / 2,2  1000 букв / с.
H ( X ) ni
Приклад 9. При передаванні неперервних сигналів каналом зв’язку
здійснюється імпульсно-кодова модуляція. Дискретизація за часом виконується з частотою FД  200 Гц . При квантуванні за рівнем шкала рівнів
ділиться на 128 дискретних рівнів.
Визначити пропускну здатність каналу без завад.
Розв’язання. Кількість дискретних рівнів визначає кількість повідомлень, які передаються. Отже максимально можлива ентропія повідомлень
max H ( X )  log128  7 біт / повідомл. ,
а пропускна здатність каналу
C  FД max H ( X )  200  7  1400 біт / с .
Приклад 10. Визначити необхідну пропускну здатність та смугу пропускання каналу, призначеною для передавання телевізійного зображення.
Можна вважати, що телевізійне зображення складається із 600 000 дрібних
елементів зображення. Кожний із цих елементів може приймати 10 різних
градацій яскравості. Всі градації можна вважати рівномірними. За одну секунду передається 25 кадрів зображення. Крім того, відомо, що для задовільного
відтворення зображення необхідне відношення сигнал/шум дорівнює 1000.
Розв’язання. Оскільки кожен елемент зображення може приймати 10
рівнів з рівною ймовірністю, то один елемент зображення містить кількість
інформації
I  log10  3,32 біт / елемент .
Один кадр містить кількість інформації, яка дорівнює 600000 I біт.
Оскільки за одну секунду повинно бути передано 25 кадрів, то пропускна
здатність каналу
С  25  600000  3,32  49,8  106 біт / с .
Згідно з формулою Шенона пропускна здатність каналу зв’язку
P

C  Fk log  c  1 .
 Pш

Звідси можна визначити смугу пропускання Fк :
C
49,8  10 6
Fk 

 5  10 6  5МГц .
P
 log1001
log c  1
 Pш

Задачі для самостійного розв’язання
Задача 1. Повідомлення дискретного джерела кодуються рівномірним
двійковим кодом і передаються
симетричним каналом зв’язку з завадами.
Визначити пропускну здатність каналу зв’язку за умови, що тривалість двійкових символів , середня імовірність помилки ре.
Вихідні
дані
, мкс
ре
Номер варіанта
0
1
1
2
-6
10
10-5
2
3
10-4
3
4
10-3
4
5
10-2
5
6
10-7
6
7
10-3
7
8
10-4
8
9
10-5
9
10
10-6
Задача 2. Обчислити пропускну здатність неперервного радіоканалу,
якщо задана середня потужність сигналу Рс на виході каналу, а завадою є
внутрішній тепловий шум радіоприймального пристрою з ефективною смугою
пропускання F. Приймач працює при температурі tоС.
Вихідні
дані
Рс,мкВт
Номер варіанта
0
1,5
1
2
2
2,5
3
3
4
3, 5
5
4
6
4,5
7
5
8
5,5
9
1
F,кГц
о
tС
12
20
13
25
14
30
15
35
16
20
20
25
10
30
25
35
30
20
15
30
Задача 3. Визначити необхідне відношення сигнал/шум на вході приймача, яке необхідне для забезпечення заданої пропускної здатності каналу
зв’язку С при заданій ширині смуги пропускання F.
Вихідні
дані
С, кбіт/с
F,кГц
Номер варіанта
0
30
2
1
40
3
2
50
4
3
60
5
4
70
6
5
80
7
6
90
8
7
100
9
8
110
10
9
120
11
Задача 4. Обчислити збільшення пропускної здатності каналу зв’язку,
якщо замість синусоїдального сигналу використовувати сигнал типу нормального білого шуму. Задані смуга пропускання каналу F і відношення середніх
потужностей сигналу і шуму Рс/ Рш
Вихідні
дані
F,кГц
Рс/ Рш ,дБ
Номер варіанта
0
2
20
1
3
21
2
4
22
3
5
23
4
6
24
5
7
25
6
8
26
7
9
27
8
10
28
9
11
29
Задача 5. Визначити швидкість передавання інформації каналом без завад, якщо повідомлення джерела кодуються натуральним двійковим кодом,
задана пропускна здатність каналу С, та імовірність появи повідомлень на вході
каналу p( xi ) .
Вихідні
дані
0
C, біт / с 1000
p ( x1 )
0,1
p( x2 )
0,2
p( x3 )
0,3
p( x4 )
0,05
p( x5 )
0,15
p( x6 )
0,2
Номер варіанта
1
2
3
4
5
6
7
8
9
2000 3000 4000 5000 6000 7000 8000 9000 10000
0,05 0,1
0,7
0,3
0,2
0,1 0,05 0,02
0,1
0,1
0,5 0,02 0,35 0,25 0,05 0,1 0,04
0,2
0,15 0,05 0,04 0,05 0,3 0,04 0,15 0,06
0,5
0,2 0,15 0,06 0,15 0,15 0,02 0,5 0,08 0,05
0,25 0,1 0,08 0,1 0,05 0,01 0,1
0,7
0,1
0,25 0,1
0,1 0,05 0,05 0,78 0,1
0,1
0,05
Задача 6. Визначити швидкість передавання інформації каналом без завад, якщо джерело виробляє повідомлення із імовірностями p ( xi ) , які кодують-
ся натуральним двійковим кодом, кожен розряд якого передається імпульсом
тривалістю  .
Вихідні
дані
p ( x1 )
p( x2 )
p( x3 )
p( x4 )
p( x5 )
 , мкс
0
0,1
0,2
0,3
0,15
0,25
1
1
0,01
0,15
0,2
0,25
0,3
2
2
0,05
0,1
0,15
0,2
0,5
3
Номер варіанта
3
4
5
6
0,05 0,1 0,25 0,1
0,2 0,25 0,3 0,15
0,25 0,35 0,35 0,2
0,35 0,2 0,05 0,25
0,15 0,1 0,05 0,3
4
5
6
7
7
0,5
0,3
0,1
0,05
0,05
8
8
0,4
0,2
0,1
0,25
0,05
9
9
0,3
0,1
0,05
0,35
0,2
10
Задача 7 При передаванні перервних повідомлень каналом зв’язку
здійснюється імпульсно-кодова модуляція. Дискретизація за часом виконується
з частотою FД . При квантуванні за рівнем шкала рівнів ділиться на L дискретних рівнів. Визначити пропускну здатність каналу без завад.
Вихідні
дані
FД , кГц
L
0
1
16284
1
2
8192
2
3
4096
Номер варіанта
3
4
5
4
5
6
2048 1024 512
6
7
256
7
8
128
8
9
64
9
10
32
Задача 8. Визначити швидкість передавання інформації по каналу без завад при використанні рівномірного двійкового коду, якщо джерело виробляє
повідомлення xi з імовірностями p ( xi ) , кореляційні зв’язки між повідомленнями відсутні, тривалість двійкових символів  .
Вихідні
дані
p( x1 )
p( x2 )
p( x3 )
p( x4 )
p( x5 )
p( x6 )
p( x7 )
p( x8 )
 , мс
0
0
0,3
0
0,4
0
0
0,1
0,2
1
1
0,1
0
0
0,2
0
0,7
0
0
2
2
0
0,1
0
0,2
0
0,3
0
0,4
3
3
0,1
0
0,05
0
0,2
0
0,15
0,5
4
Номер варіанта
4
5
6
0,2
0,1
0,1
0,05
0
0,05
0,15
0
0,05
0
0,35 0,2
0,25 0,2
0,3
0,35 0,15
0
0
0
0
0
0,2
0,3
5
6
7
7
0,1
0,15
0,2
0,25
0,3
0
0
0
8
8
0,05
0,1
0,15
0,2
0,25
0,1
0,15
0
9
9
0,1
0,05
0,2
0,15
0,1
0,15
0,2
0,05
10
Висновки: У результаті вирішення чисельних прикладів 4 завдань
підтверджені теоретичні положення про те, що: - з нового рядка максимальну
швидкість передачі дискретної інформації по каналах без перешкод необхідно
здійснювати оптимальне стастіческое кодування повідомлень джерела. При
передачі непріривного інформації максимальна швидкість передачі реалізується
при нормальному розподілі миттєвих значень сигналу.
ЛЕКЦІЯ 4
ЗАВАДОСТІЙКЕ КОДУВАННЯ. ОСНОВНІ ПОЛОЖЕННЯ ТЕОРІЇ
ЗАВАДОСТІЙКОГО КОДУВАННЯ
Мета: Вивчення основних положень теорії завадостійкого кодування.
В лекції будуть розглянуті наступні питання:
1.
Постановка задачі застосування завадостійкого кодування.
2.
Класифікація завадостійких кодів.
3.
Основні числові характеристики завадостійких кодів.
4.
Загальний алгоритм декодування завадостійких кодів.
1.Постановка задачі застосування завадостійких кодів
Основною характеристикою систем передачі інформації є вірогідність передачі при заданій швидкості передачі.
Задану вірогідність можна забезпечити:

підвищенням енергетичного потенціалу системи;

застосуванням завадостійких кодів.
Збільшення енергетичного потенціалу вимагає більших витрат, застосування
ж завадостійкого кодування істотно дешевше з використанням сучасної інтегральної елементної бази.
2.Класифікація завадостійких кодів
По призначенню кодів (по виконуваних функціях):
a.
коди, що виявляють помилки;
b.
коди, що виявляють і виправляють помилки.
Класифікація по методах побудови кодів
ЗК
НК
БК
РК
СК
НРК
РК
6
7
НРК
НСК
12345
ПК - завадостійкі коди,
БК - блокові коди,
НК - неперервні коди,
РК - роздільні коди,
НРК - нероздільні коди,
СК- систематичні коди,
НСК - несистематичні коди.
1 - код, з парним числом одиниць, що виявляє помилки непарної кратності;
2 - інверсний код, що виявляє будь-які помилки;
3 – віявляючий код з подвоєнням елементів;
4 - коди Хемінга, лінійні, систематичні;
5 - циклічні коди;
6 - код з постійною вагою;
7 - згорткові коди.
Блокові коди – коди, при використанні яких операції завадостійкого кодування виконуються усередині кодових комбінацій первинного коду, тобто
перевірочні символи формуються з інформаційних символів кодових комбінацій
первинного коду й записуються в цих комбінаціях.
Неперервні коди – при неперервному кодуванні вихідні комбінації первинного коду у вигляді неперервного потоку подаються в кодер каналу й послідовність інформаційних символів перетворюється в нову неперервну послідовність
символів завадостійкого коду, що містить як інформаційні, так і контрольні
символи. Відмінністю НК від БК є те, що в цьому випадку контрольні символи
формуються з інформаційних, які належать різним комбінаціям первинного
коду. Критерієм кодування є тимчасове розміщення символів первинного коду.
Роздільні коди – коди, які будуються таким чином, що контрольні символи
займають певні місця в кодовій комбінації – розставлені по обраним номерам, і
виділяються на прийомному кінці лінії зв'язку, у результаті чого інформаційні й
контрольні символи обробляються окремо.
Систематичні коди – коди, у яких кодові комбінації становлять систему,
характеризуються тим, що будь-яка комбінація СК може бути отримана шляхом
лінійного підсумовування двох або більше комбінацій, що належать цьому ж
коду.
3. Основні числові характеристики завадостійких кодів
Є джерело. Кількість повідомлень джерела M 0 , вони подаються в кодер
джерела, у якому формуються комбінації первинного коду. Число символів
k  log 2 M 0  (значення округляється до найближчого більшого значення). k
символів називаються інформаційними символами. Первинні комбінації подаються в кодер каналу. У кодере до k інформаційних символів додається r
контрольних символів
k  r  n.
Можливе число комбінацій M  2n ,
.
При кодуванні ми повинні із сієї множини M вибрати M 0 й привласнити
їх повідомленням алфавіту. Ці M 0 комбінацій називаються дозволеними комбінаціями. Інші
M  M0 
- заборонені комбінації.
, тому при
кодуванні завжди більший ступінь вибору.
Комбінації необхідно вибирати таким чином, щоб вони щонайкраще розрізнялися на прийомному кінці лінії зв'язку.
Уведемо кількісні критерії розрізнення кодових комбінацій. Будь-яка nзначна комбінація двійкового коду може розглядатися як вектор в n-мірному
просторі:
Ai  1010101

A j  0111101
Ai  A j  1101000
Відстань між цими комбінаціями є число одиниць у сумі по модулі 2. Найважливіша характеристика – кодова відстань
- мінімальна відстань між
двома дозволеними комбінаціями завадостійкого коду. Вона визначає виявляючі
і виправляючі властивості коду.
4.Кодова відстань і її зв'язок із кратністю помилок що виявляються й
або, що виправляються.
Побудуємо лінійну модель коду
- дозволені комбінації,
- заборонені комбінації.
Розглянемо процес виявлення помилок
Нехай була передана дозволена кодова комбінація, а прийняли одну із заборонених комбінацій. Це значить, що в кодовій комбінації є помилка.
Кратність помилок, що виявляються.
При проектуванні коду призначеного для виявлення помилок кратністю
необхідно забезпечити виконання нерівності
.
Надмірність коду:

r
r

.
n rk
- кількість спотворених символів кодової комбінації, що можуть бути виявлені.
Розглянемо процес виявлення помилок.
Принцип максимальної правдоподібності. Будемо вважати, що була передана та кодова комбінація, що лежить на мінімальній відстані від прийнятої
забороненої. Імовірність спотворення одного символу pe . Імовірність спотворення комбінації
символів в комбінації.
,
При незалежних помилках імовірність спотворення великої кількості символів різко падає в порівнянні з імовірністю спотворення одного символу.
При виправленні комбінації ми вважаємо, що була передана та комбінація,
що лежить на мінімальній відстані від прийнятої забороненої.
Кратність помилок, що виправляються
Імовірність не виправлення кодових комбінацій. При передачі кодових комбінацій виникають наступні ситуації - дозволена кодова комбінація може бути:
1.
прийнята правильно
2.
с помилкою, що може бути виправлена
3.
с помилкою, що не виправляється
Помилка може бути виправлена, якщо виправляючі здатності коду відповідають кількості прийнятих символів прийнятої комбінації
- імовірність правильного прийому кодової комбінації,
- імовірність виправлення помилок заданої кратності,
Імовірність помилкового прийому одного символу - pe ,
Сума цих імовірностей дорівнює одиниці
,
імовірність виправлення кодової комбінації при довільній кількості помилок, рівній
на фіксованих позиціях коду.
При довільному розміщенні помилково прийнятих символів у коді, що виправляє
помилок,
,
де
Імовірність виправлення помилок кратності від 1 до
включно
Імовірність помилок, що не виправляються
При
=1
.
Оскільки
.
Найпростіший загальний алгоритм декодування завадостійких кодів.
M 0 - кількість повідомлень, що підлягають кодуванню, вони кодуються дозволеними кодовими комбінаціями. Ці комбінації передаються каналом зв'язку. На
виході каналу зв'язку може бути прийнята кожна з M-
можливих комбінацій.
Загальний алгоритм виправлення помилок полягає в тому, що прийняту комбінацію порівнюють із усіма дозволеними комбінаціями й ухвалюють рішення щодо
передачі тої, котра перебуває на мінімальній відстані від прийнятої забороненої.
В наведеному вигляді алгоритм потребує складної апаратної реалізації, бо
необхідно спочатку одчислити
сум виду
, де і змінюється від 1 до
, а потім порівняти їх між собою, знайти мінімальну суму і прийняти рішення
про передану комбінацію
.
На практиці використовують більш складні алгоритми, які мають високу
швидкодію і просту апаратну реалізацію. Деякі з них ми розглянемо в наступних
лекціях.
Висновки
В результаті вивчення наданого в лекції матеріалу були розглянуті питання застосування завадостійких кодів в системах передачі інформації, класифікації
завадостійких кодів за призначенням та методами
побудови, основні кількісні
характеристики завадостійких кодів та обчислена імовірність не виправлення
спотворених кодових комбінацій.
ЛЕКЦІЯ 5
Систематичні блокові лінійні коди
Мета - вивчити основи побудови блокових лінійних кодів, розглянути деякі
основні види систематичних лінійних кодів, методи кодування та декодування. В
лекції будуть розглянуті наступні питання:
Загальні методи кодування і декодування систематичних блокових лі-
1.
нійних кодів
2.
Код з парним числом одиниць
3.
Інверсний код
4.
Код з подвоєнням елементів
5.
Код Хемінга.
1.
Загальні методи кодування і декодування систематичних блокових
лінійних кодів
Кожна комбінація систематичного лінійного коду містить інформаційні а і контрольні символи в. Інформаційні символи реалізуються на початку кодової
комбінації, контрольні (перевірочні) на кінці. Кожна кодова комбінація містить k
інформаційних та r контрольних символів і має вигляд.
.
Інформаційні символи утворюються при перетворенні повідомлень джерела у
двійкові комбінації натурального коду, контрольні символи формуються в кодері
каналу з інформаційних.
Загальний алгоритм формування контрольних символів має вигляд
де
- коефіцієнти, які визначаються правилами кодування конкретних кодів.
Якщо
інформаційний символ включається у формування суми, якщо
, то не включається.
Сформована кодова комбінація
передається каналом
зв'язку. На виході каналу ми маємо прийняту кодову комбінацію
, яка може співпадати з переданою, або відрізнятися
за рахунок спотворення деяких символів завадами. Перевірка прийнятих кодових
комбінацій на наявність помилок здійснюється наступним чином.
Із інформаційних символів
прийнятої кодової комбінації формується допо-
міжна послідовність контрольних символів
за тим же правилом, що і кодері
каналу
Потім допоміжні контрольні символи спів ставляються з прийнятими контрольними символами шляхом відповідного підсумовування за модулем 2.
Таким чином отримують
одно розрядних сум
, записують їх послідовно
, що утворює - розрядне двійне число S , яке називають контрольним числом або синдромом коду. Якщо
S дорівнює нулю, це свідчить, що в
кодовій комбінації помилки відсутні або не виявляються у випадку, коли одна
дозволена комбінація переходить в іншу дозволену при кількості спотворених
символів у комбінації більшій, ніж може виправити даний код.
Розглянемо використання контрольних чисел для виправлення помилок. Для
цього необхідно указати номери спотворених розрядів в кодовій комбінації, а потім
про інвертувати символи у цих розрядах. Зрозуміло, що номери спотворених
розрядів не залежать від конкретного виду кодової комбінації. Для однозначного
вирішення цієї необхідно, щоб кількість
- розрядних двійкових контрольних
чисел S була більше (або рівнялась) кількості варіантів помилок (тобто сукупностей номерів спотворених символів). Тоді кожному контрольному числу можна спів
ставити варіант помилки. Математичний запис цього правила
де
- кількість – розрядних двійкових чисел, відмінних від нуля, а
- кі-
лькість різних варіантів помилок (спотворення і символів у кодовій комбінації
довжиною n).
У найпростішому випадку, коли необхідно виправляти одиночні помилки в
кодових комбінаціях
Тоді розрахункова формула для визначення кількості контрольних символів в
, в кодовій комбінації має вигляд
Таким чином загальний порядок визначення основних характеристик кода має
такий вигляд:
По заданій кількості повідомлень джерела
1.
визначаємо необхідну кі-
лькість інформаційних символів
Із нерівності
2.
обчислюємо необхідну кількість контрольних символів .
3. Обираємо вид конкретного кода, який визначає матрицю коефіцієнтів
.
2. Код з парним числом одиниць
Це найпростіший код, який дозволяє виявляти всі помилки не парної кратності. Він містить один контрольний символ і, тому має мінімальну надмірність.
Структура кодової комбінації має вигляд
.
Контрольний символ формується за загальним правилом
тобто всі інформаційні символи входять в склад лінійної суми.
На приймальному кінці лінії зв’язку із прийнятих інформаційних сигналів
формується допоміжний контрольний символ
за правилом
який потім співставляється з прийнятим контрольним
шляхом підсумову-
вання за модулем 2
Якщо одно розрядне двійкове число
дорівнює нулю, це свідчить про від-
сутність помилок не парної кратності. Найбільш важливо виявлення однократних помилок, бо імовірність двократних помилок
, а при
, що є вимогою до системи зв’язку
.
Цей називається кодом з парним числом одиниць, тому що всі передані і
правильно прийняті комбінації містять парне число одиниць.
Наприклад, якщо передана і прийнята комбінації
101011, то
=0.
Якщо спотворений один символ в кодовій комбінації і вона має вигляд
100011, то =1, що свідчить про наявність помилки.
3. Інверсний код
Інверсний код дозволяє виявляти майже всі помилки непарної і парної кратності за рахунок великої надмірності
тому що кількість контрольних символів
дорівнює кількості інформаційних
.
Структура кодової комбінації інверсного коду
.
Контрольні символи формуються за правилом
тобто якщо сума інформаційних символів дорівнює нулю, контрольні символи
, якщо сума дорівнює одиниці, контрольні символи є інвертовані інформаційні
.
На приймальному кінці лінії зв’язку здійснюється
перевірок прийнятої ко-
дової комбінації за правилами
Якщо хоч один елемент контрольного числа не дорівнює нулю, це свідчить
про наявність помилки.
Наприклад, вихідна комбінація 1010,
Тоді комбінація інверсного коду 10101010.
Якщо помилки в прийнятій комбінації відсутні
Якщо в прийнятій комбінації два символи спотворені, тобто маємо
01101010
Тоді
Наявність помилок в кодовій комбінації виявлена.
4. Код з подвоєнням елементів
Це простий виявляючий код.
В цьому коді контрольні символи утворюються за правилом
і кодова комбінація має вигляд
На сусідніх позиціях символи завжди протилежні. На приймальному кінці перевірка здійснюється шляхом підсумовування двох символів на одному тактовому
інтервалі
.
В цьому випадку не виявлення помилок буде тільки у разі одночасного спотворення інформаційного і контрольного символів, імовірність чого
, тобто
дуже мала. Код дуже простий в апаратній реалізації, але має недолік
високу
надмірність
, що призводить до зменшення швидкості передавання
корисної інформації у 2 рази.
5. Коди Хемінга
Відомо кілька різновидів коду Хэмінга, характеризуються різною коригувальною здатністю. До цих код звичайно ставляться коди з виправленням однократних
помилок і коди з виправленням однократних і виявленням дворазових помилок.
Код Хэмінга, що забезпечує виправлення всіх однократних помилок, повинен
мати мінімальна кодова відстань
. Кількість контрольних символів
визначається із вирішення нерівностей
, або
де “k” - кількість інформаційних символів.
Код будується таким чином, щоб у результаті
перевірок одержати
- розрядне двійкове число, що вказує номер перекрученої позиції кодової комбінації. Для цього перевірочні символи повинні перебуває на номерах позицій, які
виражаються ступенем двійки
, тому що кожний з них входить
тільки в один з перевірочних рівнянь. Таким чином, якщо нумерувати позиції
ліворуч на права, те контрольні символи повинні перебуває на перших, другий,
четвертої й т.д. позиціях.
Результат першої перевірки дає цифру молодшого розряду синдрому у двійковому записі. Якщо результат цієї перевірки дасть 1, то один із символів перевіреної
групи перекручений. Таким чином, першою перевіркою повинні бути охоплені
символи з номерами, що містять у двійковому записі одиниці в першому розряді:
1,3,5,7,9 і т.д. результатом другої перевірки дає цифру другого розряду синдрому.
Отже, другою перевіркою повинні бути охоплені символи з номерами, що містять у
двійковому записі одиниці в другому розряді: 2,3,6,7,10 і т.д.
Аналогічно при третій перевірці повинні перевіряться символи, номери яких у
двійковому записі містять одиниці в третьому розряді: 4,5,6,7,12 і т.д.
Таким чином, перевірочні групи повинні мати вигляд
……………………………………..
Перевірочна матриця коду повинна мати
стовпців і
рядків.
Кожний стовпець повинен становити двійкову комбінацію, що вказує позиції
коду.
Наприклад, для коду довжиною
, що забезпечує виправлення однократ-
них помилок, кількість надлишкових символів
. При цьому в якості переві-
рочної може бути обрана наступна матриця
Представимо як приклад просту двійкову комбінацію 10011 кодом Хемінга.
Тому що інформаційними повинні бути третій, п'ятий, шостий, сьомий і дев'ятий
символи, то для розглянутого коду
З умови забезпе-
чення парності сум, одержимо наступне значення перевірочних символів:
. Отже, простому п’ятиелементному коду 11011
відповідає дев’ятиелементний код Хемінга 101100111.
Нехай тепер при передачі відбулося перекручування п'ятого символу, тобто
код прийняв вид 101110111. тоді в результаті першої перевірки одержимо
другої
, третьої
і четвертої
,
. Таким чином, у результаті переві-
рок отриманий синдром
, що вказує на перекручування п'ятого символу.
Виправлення помилок зводиться до інвертування символу на п'ятої позиції.
Код Хемінга з кодовою відстанню
до коду Хемінга з
отримують шляхом додавання
перевірочного символу, що представляє собою
результат підсумовування по модулі два всі символи кодової комбінації.
Операція декодування складається із двох етапів. На першому визначається
синдром, що відповідає коду з
, на другому – перевіряється останнє
перевірочне співвідношення.
Для розглянутого раніше коду з
перевірочна матриця може мати
вигляд
Додаткове перевірочне співвідношення, що вводиться для збільшення мінімальної відстані коду Хемінга до
, має вигляд
.
Надмірність коду Хемінга
символів і при зміні k
залежить від кількості інформаційних
від 4 до 1013 змінюється від 0,429 до 0,098 при
й від 0,5 до 0,0107 при
.
Висновки
У лекції розглянуті основи теорії побудови систематичних блокових лінійних
кодів, вивчені методи кодування і декодування декількох видів кодів, наведені
приклади виконання операцій кодування і декодування, виявлення і виправлення
помилок у кодових комбінаціях.
ЛАБОРАТОРНА РОБОТА №1
ВИВЧЕННЯ ПРИНЦИПУ ДІЇ ТА ДОСЛІДЖЕННЯ ЗАВАДОСТІЙКОСТІ РАДІОСИСТЕМИ ПЕРЕДАВАННЯ ІНФОРМАЦІЇ ІЗ БЛОКОВИМ
КОДОМ
1 Мета роботи
Закріплення та поглиблення знань принципів побудови радіотехнічних систем передавання дискретної інформації, що використовують завадостійкі блокові
коди; дослідження процесів кодування та декодування кодів Хемінга; дослідження характеристик коду Хемінга і його завадостійкості.
2 Методичні вказівки
При підготовці до виконання лабораторної роботи необхідно вивчити тему 8
по конспекту лекцій і рекомендовану літературу [1, с. 117 - 118; 2, с. 210 - 215; 3,
с. 91 -93; 6, с. 229 - 230]. Особливу увагу звернути на наступні основні положення.
У цей час найбільш широкий клас коригувальних кодів становлять систематичні коди, що відносяться до групи роздільних блокових кодів. Для систематичного коду сума по модулю два двох дозволених комбінацій також дає дозволену
комбінацію. Код Хемінга відноситься до систематичних кодів.
Всі дозволені кодові комбінації систематичного (n, k ) - коду можна одержати, маючи у своєму розпорядженні k вихідних дозволених кодових комбінацій.
Вихідні кодові комбінації повинні задовольняти наступним умовам:
-
у число вихідних комбінацій не повинна входити нульова;
-
кодова відстань між будь-якими парами вихідних комбінацій не по-
винна бути менше кодової відстані d min ;
-
кожна вихідна комбінація , як і будь-яка нульова дозволена комбі-
нація, не повинна містити кількість одиниць не менше ніж d min ;
-
всі вихідні комбінації повинні бути лінійно незалежні, тобто жодна з
них не може бути отримана шляхом підсумовування інших.
Вихідні комбінації можуть бути отримані з матриці, що складається з k рядків і n стовпців. Якщо перевірочні символи записуються в кодовій комбінації
після інформаційних, вихідні комбінації можуть бути отримані з матриці, що
складається з k рядків і n стовпців
a11 a12 ... a1 b11 b12 ... b1r
Pn,k 
a 21 a 22 ... a 2 b21 b22 ... b2 r
(1.1)

a k1 a k 2 ... a k bk1 bk 2 ... bkr
Тут символи перших k стовпців є інформаційними, а останніх
r стовпців
– перевірочними. Матрицю Pn,k називають виробляючою. Вона може бути
представлена двома підматрицями – інформаційною U k та перевірочною H r
a11 a12 ... a1
b11 b12 ... b1r
a 21 a 22 ... a 2 
b 21 b 22 ... b 2 r
Uk   ,
Hr   .


a k1 a k 2 ... a k
b k1 b k 2 ... b kr
(1.2)
Значимість коду n та кількість перевірочних символів r у кожній кодовій
комбінації визначаються кількістю інформаційних символів
k і заданою кратні-
стю помилок g , що виправляються. На практиці спочатку визначається кількість
інформаційних символів k по формулі k  log 2 N з округленням до найближчого
великого цілого числа, де N – обсяг алфавіту джерела.
Значимість коду, що виправляє всі помилки кратності від 1 до g , визначається із загальною формулою
2n
N
1
g
,
(1.3)
 C ni
i 1
де C ni - число сполучень.
При виправленні тільки однократних помилок
2r  1  k  r
Кількість перевірочних символів r  n  k .
(1.4)
Для побудови виробляючої матриці зручно інформаційну матрицю брати у
вигляді квадратної одиничної матриці. При цьому перевірочна підматриця
повинна будуватися з дотриманням наступних умов:
кількість одиниць у рядку повинно бути не менш d min  1 ;
сума по модулю два будь-яких рядків повинна містити не менш d min  2
одиниць.
Перевірочні символи утворюються за рахунок лінійних операцій над
інформаційними символами. Для кожної кодової комбінації повинно бути
складено r незалежних сум по модулю два. Вибір інформаційних символів, що
використовуються у формуванні того або іншого перевірочного символу,
залежить від способу декодування коду і здійснюється відповідно до правила
k
b j   0  ij a i ; i  1, k ;
j  1, r
(1.5)
i 1
де  i, j - коефіцієнти (0 або 1), що характеризують даний код.
Якщо набір всіх коефіцієнтів  i, j зібрати в таблицю (матрицю), то
одержимо так називану перевірочну матрицю коду H розмірності k  r
 11   i1    1
H k ,r

  1 j   ij   j .
(1.6)

 1r   ir   kr
Одиниці в кожному j -у рядку матриці H показують, які інформаційні символи потрібно скласти, щоб одержати j -й перевірочний символ.
Для визначення місця помилки у кодовій комбінації та виправлення помилки, зручно користуватися перевірочною матрицею коду H розмірності k  r
H n ,r
 11   i1    1 1  0  0
  1 j   ij   j 0  1  0 .
 1r   ir   kr
(1.7)
0  0 1
Позиції, що займають одиниці в одиничній матриці, вказують номера позицій контрольних символів, що використовуються у кожній перевірці на парність.
Перевірка прийнятих кодових комбінацій при цьому виконується шляхом
підсумовування по модулю два перевірочних символів прийнятих кодових
комбінацій і допоміжних перевірочних символів, обчислених по прийнятим
інформаційним.
Состав контрольних рівностей легко визначається з перевірочної матриці
H n,r . До складу першої контрольної рівності повинні входити символи, позиції
яких зайняті одиницями в першому рядку матриці H n,r ; до складу другого –
символи, позиції яких зайняті одиницями в другому рядку матриці H n,r і т.і. У
результаті r таких перевірок буде отримане r - розрядне двійкове число (синдром), що буде дорівнювати нулю при відсутності помилок і відрізнятися від нуля
у випадку наявності помилок. Відповідність між видом синдрому та місцем
спотвореної позиції у кодовій комбінації повинна бути заздалегідь визначена.
Основними характеристиками систематичних блокових кодів є значність
коду n , надлишковість  і завадостійкість, кількісно оцінювана імовірністю
правильного приймання кодових комбінацій.
Pправ  1  Рпом
(1.8)
де
n i
h!
,
g!h  g !
i 1
P0 - імовірність помилкового прийому одиночного символу.
Загальне завдання, що ставиться при створенні коду, полягає в досягненні
g
Pпом  1  1  Р 0    C P 1  P0 
n
i i
n 0
, C ni 
найменших значень Pпом і  .
Типовим систематичним блоковим кодом є код Хемінга. Відомо кілька різновидів такого коду, що характеризуються різною коригувальною здатністю. До
цих кодів звичайно відносять коди з виправленням однократних і виявленням
двократних помилок. Код Хемінга, що забезпечує виправлення всіх однократних
помилок, повинен мати мінімальну кодову відстань d min  3 . Код будується
таким чином, щоб у результаті r  n  k перевірок одержати r - розрядне двійкове число, що вказує номер спотвореної позиції у кодовій комбінації. Для цього
перевірочні символи повинні перебувати на позиціях, номера яких виражаються
ступенем числа 2 (20, 21, 22, …2r-1), тому що кожний з них входить тільки в одне з
перевірочних рівнянь. Таким чином, будь-яка комбінація коду Хемінга записується у вигляді
b1b2 a 3 b4 a 5 a 6 a 7 b8 a 9 a10 a11 a12 ...
де a - інформаційні символи, b - контрольні символи.
Цифровий індекс визначає номер позиції в кодовій комбінації.
(1.9)
Контрольні символи визначаються відповідно до правил
b1  a3  a5  a7  a9  a13  ...
b2  a3  a6  a7  a10  a14  ...
b4  a5  a6  a7  a12  a13  a14  ...
(1.10)
b8  a9  a10  a11  a12  a13  a14  ...
Контрольні рівності, що визначають состав синдрому (перевірочного
двійкового числа), повинні мати вигляд:
S1  b1  a 3  a 5  a 7  a 9  ...
S 2  b2  a 3  a 6  a 7  a10  ...
S 3  b4  a 5  a 6  a 7  a12  ...
(1.11)
S 4  b8  a 9  a10  a11  a12  ...
Результат першої перевірки дає цифру молодшого розряду синдрому у
двійковому записі, другої перевірки – цифру другого розряду і т.і. Якщо результат однієї або декількох перевірок дає 1, це означає, що один із символів
кодової комбінації спотворений. Таким чином, синдром має вигляд
… S 4 S 3 S 2 S1 і вказує номер позиції спотвореного символу. Виправлення помилки зводиться до інвертування цього символу.
Перевірочна матриця коду повинна мати n стовпців і r рядків, причому
нижній рядок визначає першу перевірку на парність, другий рядок знизу визначає другу перевірку і т.і.
При домашній підготовці до лабораторної роботи необхідно:
1.2.1. Визначити необхідне число інформаційних і контрольних символів
і значність коду Хемінга, що дозволяє закодувати алфавіт N  16 і виправляє
всі одиночні помилки.
1.2.2. Закодувати кодом Хемінга повідомлення, що відповідають будьяким шести числам, що задані викладачем.
1.2.3. Вважаючи переданими комбінації, знайдені в п. 1.2.3. ввести одиночні помилки спочатку в інформаційні символи, потім у контрольні символи.
Вважаючи прийнятими отримані таким чином спотворені комбінації, обчислити контрольні числа, що вказують номери спотворених позицій.
1.2.4. Ввести в отримані в п. 1.2.3 кодові комбінації дворазові помилки,
обчислити контрольні числа та переконатися у відсутності відповідності між
контрольним числом і номерами спотворених позицій.
1.2.5. Обчислити надлишковість коду Хемінга для отриманих комбінацій.
1.2.6. Обчислити завадостійкість коду Хемінга по формулі (1.8), враховуючи імовірність помилкового прийому одного символу P0  10 3 .
1.2.7. Відкрити програму Matlab 6.5 та запустити файл математичної моделі hem.mdl. Зняти залежності імовірності помилки від відношення сигнал/шум для каналу зв’язку з нормальним білим шумом без кодування та при
використанні коду Хемінга.
3 Опис лабораторної установки
Лабораторний макет імітує систему передачі інформації з використанням сьомиелементного коду Хемінга та містить у собі кодувальний пристрій,
імітатор лінії зв'язку, пристрій виправлення помилок і пристрої індикації переданої, прийнятої та виправленої інформації. Функціональна схема лабораторного макету (рисунок 1.1) нанесена на лицьовій панелі макета.
Канал зв’язку
Декодована
інформація
Кодова
комбінація
b 1 b 2 а3 b 4 а5 а6 а7
Декодер
а3 а5 а6
S3 S2 S1
Кодер
а3 а5 а6
а7
Синдром
а7
Інформаційні
біти
Рисунок 1.1 – Схема електрична функціональна лабораторного макету
Макет системи передачі інформації працює в такий спосіб: у пристрої, що
кодує, формується кодова комбінація. При цьому, до чотирьох інформаційних
символів додаються три контрольних, які формуються в результаті перевірки на
парність за вищенаведеними правилами.
Щоб закодувати деяке число, потрібно набрати його інформаційні біти
а3, а5, а6, а7, розташованими в пристрої кнопками.
Після встановлення кнопками переданого числа в пристрої, що кодує, автоматично здійснюється три перевірки на парність і виробляються контрольні
символи відповідно до правила (1.5).
Інформаційні символи відображуються на табло ІНФОРМАЦІЙНІ БІТИ, закодована кодова комбінація – на табло КОДОВА КОМБІНАЦІЯ.
При необхідності введення спотворень на певних позиціях кодової
комбінації це робиться відповідними кнопками КАНАЛУ ЗВ'ЯЗКУ. При введенні спотворень варто пам’ятати, що кожний із семи символів коду Хемінга
передається по своєму каналі.
Прийнятий сигнал записується в регістрі пам'яті декодувального пристрою, та відображується на табло ДЕКОДОВАНА ІНФОРМАЦІЯ, і далі проводяться перевірки на парність. У першу перевірку включаються символи, що
перебувають на позиціях 1, 3, 5, 7, у другу - на позиціях 2, 3, 6, 7, у третю - на
позиціях 4, 5,6, 7. У підсумку перевірки формується двійкове контрольне число,
кожен розряд якого є результатом однієї з перевірок, та відображується на табло СИНДРОМ. Воно, за умови однократної помилки, безпосередньо вказує
номер спотвореного біту.
4 Порядок виконання роботи
Виконуючи роботу, необхідно досліджувати:
 Передачу по системі неспотвореної інформації, передаючи повідомлення із числа отриманих у домашньому розрахунковому завданні, а також
задані викладачем.
 Проходження в системі передачі інформації кодових комбінацій за п.
1.4.1, з однократною помилкою спочатку в інформаційних символах, а потім у
контрольних.
 Проходження в системі передачі інформації кодових посилок за п. 1.4.1
при введенні двократної помилки в інформаційні символи, контрольні символи
та у їх комбінацію.
5. Зміст звіту
У звіті приводяться:
структурна схема лабораторного макета;
результати розрахунків, зроблених до виконання лабораторної роботи відповідно за пп. 1.2.1 - 1.2.7;
результати експериментальних досліджень за пп. 1.4.1 - 1.4.3.
6 Контрольні запитання і завдання
1. Приведіть класифікаційну таблицю коригувальних кодів.
2. У чому складається сутність виявлення та виправлення помилок?
3. Що таке надлишковість і як вона вводиться в процес кодування?
4. Що така кодова відстань і як вона пов'язана із здатностями коду виявляти та виправляти помилки?
5. Що таке некоректовані помилки і чому дорівнює імовірність їх появи?
6. Об’ясніть загальний принцип побудови систематичних кодів.
7. Як визначається необхідне число контрольних символів у комбінації систематичного коду?
8.Чим характеризуються коди Хемінга?
9. Покажіть процес формування контрольних символів у коді Хемінга.
10. Покажіть зв'язок контрольного числа із номером спотвореної позиції у
кодовій комбінації.
ЛЕКЦІЯ 6
ЦИКЛІЧНІ КОДИ
Мета – вивчення методів побудови циклічних кодів, алгоритм кодування,
представлення комбінацій циклічних кодів у вигляді двійкових поліномів, операції
над двійковими поліномами.
В лекції розглянуті наступні питання:
1. Основні властивості циклічних кодів і способи їх математичного опису.
2. Способи кодування і декодування циклічних кодів.
3. Матричне подання циклічних кодів.
1. Основні властивості циклічного коду й способи побудови
Циклічні коди знайшли досить широке застосування завдяки їхній ефективності при виявленні й виправленні помилок. Схеми що кодують і декодують пристроїв для цих кодів надзвичайно прості й будуються на основі звичайних регістрів
зсуву.
Назва кодів походить від їхньої властивості, яка полягає в тім, що кожна кодова комбінація може бути отримана шляхом циклічної перестановки символів
комбінації, що належить цьому ж коду. Це означає, що якщо, наприклад, комбінація
є дозволеною комбінацією циклічного коду, то комбінація
також належить цьому коду.
Циклічні коди зручно розглядати, представляючи комбінацію двійкового коду
не у вигляді послідовності нулів і одиниць, а у вигляді полінома від фіктивної
змінної х, а саме:
(1)
де
- цифри даної системи числення (у двійковій системі 0 і 1).
Так, наприклад, двійкове семи розрядне число 1010101 може бути записане у
вигляді полінома
(2)
Найбільший ступінь х у доданку з нульовим коефіцієнтом називається ступенем полінома.
Подання кодових комбінацій у формі (2) дозволяє звести дії над комбінаціями
до дії над поліномами. При цьому додаванні поліномів зводиться до додавання по
модулі «два» коефіцієнти при рівних ступенях змінної х, множення виконується за
звичайним правилом перемножування ступеневих функцій, однак отримані при
цьому коефіцієнти при рівних ступенях змінної х підсумовуються за модулем
«два»; ділення здійснюється за правилами ділення ступеневих функцій, при цьому
операції вирахування заміняються операціями підсумовування за модулем «два».
Подання комбінацій у формулах (1) і (2) зручно ще й тим, що згадана циклічна
перестановка є результат простого множення даного полінома на х . Дійсно, якщо
одна
з
кодових
комбінацій
виражається
поліномом
, то ново комбінація за
рахунок циклічного зсуву буде
.
Однак в останньому виразі треба замінити
на 1 і перемістити цей член на
останню позицію.
Отже нова комбінація буде
.
Наприклад, циклічне зрушення кодової комбінації 1010101 може бути отриманий шляхом множення полінома (2) на х
.
Замінивши
на 1, одержимо поліном
.
Відповідної кодової комбінації 0101011.
Відповідно до визначення циклічного коду для побудови виробляючої матриці
Pn.k досить вибрати тільки одну вихідну n- розрядну комбінацію
. Циклічним
зсувом можна одержати (n – 1) різних комбінацій, з яких будь-які k комбінацій
можуть бути взяті в якості вихідних. Підсумовуючи рядки виробляючії матриці у
всіх можливих комбінаціях, можна одержати інші кодові комбінації. Можна
показати, що кодові комбінації, одержувані з деяких комбінацій
циклічним
зсувом, задовольняють умовам, що пред'являються до сукупності вихідних комбінацій.
Циклічне зсув комбінації з одиницею в старшому n-му розряді рівносильний
множенню відповідного багаточлена на х з одночасним вирахуванням з результату
полінома
або
, тому що операції здійснюються за модулем «два».
Отже, якщо в якості вихідного взяти деякий поліном Р(х), то процес одержання
базових поліномів можна представити в наступному виді;
U 1 ( x)  P ( x);
U 2 ( x)  P( x) x  C 2 ( x n  1);
U 3 ( x)  P( x) x 2  C 3 ( x n  1);
(3),
.........................................
U n ( x)  P( x) x n 1  C n ( x n  1).
де
-коефіцієнти, що приймають значення 1 при
значення 0 при
й
.
При такому способі побудови базових поліномів поліном Р(х) називають
утворюючим.
Якщо прийняти умову, що поліном Р(х) є розподілом двочлена
, то
базові комбінації, а разом з ними всі дозволені комбінації коду здобувають властивість ділення на Р(х). Із цього виходить, що приналежність кодової комбінації до
грипі дозволених можна легко перевірити діленням її полінома на утворюючий
поліном Р(х). Якщо залишок від ділення дорівнює нулю, то комбінація є дозволеною.
Це властивість циклічного коду використовується для виявлення або виправлення помилок. Дійсно, якщо під впливом завад дозволена кодова комбінація
трансформується в заборонену, то помилка може бути виявлена по наявності
залишку при діленні комбінації на утворюючий поліном Р(х).
Таким чином утворюючий поліном Р(х) повинен задовольняти вимозі – він
повинен бути дільником двочлена
. Вибір Р(х) однозначно визначає
циклічний код і його коригувальні властивості.
2. Способи кодування і декодування циклічних кодів
Циклічний (n, k)- код може бути отриманий шляхом множення простого k значного коду, вираженого у вигляді полінома ступеня (n – 1), на деякий утворюючий поліном Р(х) ступеня (n – k).
Можлива й інша процедура одержання циклічного коду. Для цього кодова
комбінація простого k- значного коду G(x) множиться на одночлен
, а потім
ділиться на утворюючий поліном Р(х) ступеня (n – k). У результаті множення G(x)
на
ступені кожного одночлена, що входить в G(x), підвищиться на (n – k).
При розподілі добутку
G(x) на утворюючий поліном Р(х) вийде частка Q(x)
такого ж ступеня, як і G(x).
Результат множення й ділення можна представити в наступному виді:
(4),
де R(x)- залишок від розподілу
· G(x) на Р(х).
Тому що частка Q(x) має такий же ступінь, як і кодова комбінація G(x), то Q(x)
також є комбінацією простого к- значного коду.
Множачи обидві частини рівності (4) на Р(х) і роблячи деякі перестановки,
одержимо
F ( x)  Q( x) P( x)  x n1G( x)  R( x).
(5)
У правій частині (5) знак мінус перед R(x) замінений знайомий плюс, тому що
вирахування по модулі два зводиться до додавання.
Таким чином, кодова комбінація циклічного (n, k)- коду може бути отриманий
двома способами:
1) шляхом множення простої кодової комбінації ступеня (k – 1) на одночлен
і додавання до цього добутку залишка, отриманого від ділення добутку на
утворюючий поліном Р(х) ступеня (n – k);
2) шляхом множення простої кодової комбінації ступеня (k – 1) на утворюючий поліном Р(х) ступеня (n – k).
При першому способі кодування перші k - символів отриманої кодової комбінації збігаються з відповідними символами вихідної простої кодової комбінації.
При другому способі в отриманій кодовій комбінації інформаційні символи не
завжди збігаються із символами вихідної простої комбінації. Такий спосіб легко
реалізуємий, але в наслідок того, що в отриманих кодових комбінаціях не зберігаються інформаційний символи в явному виді, ускладнюється процес декодування.
У зв'язку з вищевикладеним на практиці звичайно використовується перший
спосіб одержання циклічного коду.
3. Матричне подання циклічних кодів
Для формування рядків виробляючої матриці по першому способу утворення
циклічного коду беруть комбінації простого
-Розрядного коду G(x), що містять
одиницю в одному розряді. Ці комбінації множаться на
залишок R(x) від ділення отриманого добутку
, визначається
·G(x) на утворюючий поліном і
записується відповідний рядок матриці у вигляді суми добутку
залишку R(x). При цьому виробляюча матриця
Pn.k
·G(x) і
представляється двома
підматрицями – інформаційної U k й додаткової H p :
Pn  k  U k .H p .
Інформаційна підматриця U k являє собою квадратну матрицю з кількістю рядків і стовпців, рівного . Додаткова підматриця H p містить р = n - k стовпців і k
рядків і утворена залишками R(x).
Виробляюча матриця дозволяє одержати
- комбінацій коду. Інші комбінації
виходять підсумовуванням за модулем «два» рядків виробляючої матриці у всіх
можливих сполученнях.
Нехай, наприклад, необхідно побудувати виробляючу матрицю циклічного
коду. Утворюючий поліном
.
Інформаційна підматриця має вигляд
Для одержання першого рядка додаткової підматриці перший рядок інформаційної підматриці множиться на
відає виконанню операцій
й ділиться на утворюючий поліном. Це відпо-
0001 1000
. Залишок цих операцій 101 і складе перший
1000
рядок додаткової підматриці. Аналогічно визначаються інші рядки додаткової
підматриці.
Остаточно виробляюча підматриця має вигляд
При другому способі утворення циклічного коду виробляюча матриця
формується шляхом множення утворюючого полінома Р(х) ступеня
одночлен
і наступних
Pn.k
р = n – k на
– 1 зсувом отриманої комбінації.
Вибір утворюючого полінома. При побудові циклічного коду спочатку визначається число інформаційних розрядів
по заданому обсязі коду. Потім визнача-
ється найменша довжина кодових комбінацій n, що забезпечує виявлення або
виправлення помилок заданої кратності. Ця проблема зводиться до знаходження
потрібного утворюючого полінома Р(х).
Як ми вже відзначали раніше, ступінь утворюючого полінома повинна дорівнювати числу перевірочних розрядів р.
Оскільки в циклічному коді ідентифікаторами помилок є залишки від розподілення багаточлена прийнятої комбінації на утворюючий багаточлен, то коректуюча
здатність коду буде тим вище, чим більше залишків може бути утворено в результаті цього ділення.
Найбільше число залишків, рівне
- 1 (крім нульового), може забезпечити
багаточлен, що не приводиться, ступеня
багаточлен).
Відомо, що двочлен типу
x
n
(тобто не ділиться ні на який інший
 
1  x2
z 1

 1 , у розкладання якого як
співмножник повинен входити утворюючий багаточлен, володіє тією властивістю,
що він є загальним кратним для всіх без винятку поліномів ступеня, що не приводяться z і розкладається на множники із всіх поліномів, що не приводяться,на
ступені яких ділиться без залишку число z.
Найпростішим циклічним кодом є код, що забезпечує виявлення однократних
помилок. Вектору однократної помилки відповідає одночлен
x i , ступінь якого i
може приймати значення від 1 до n. Для того щоб могла бути виявлена помилка,
одночлен
x i не повинен ділитися на утворюючий поліном Р(х). Серед багаточле-
нів, що не приводяться, вхідний у розкладання
x n  1 двучлена , є багаточлен
найменшого ступеня + + 1. Таким чином, що утворить поліномом даного коду є
двочлен Р(х) = х + 1. Залишок від ділення будь-якого багаточлена на х + 1 може
приймати тільки два значення: 0 і 1. Отже, при будь-якій кількості інформаційних
розрядів необхідний тільки один перевірочний розряд. Значення символу цього
розряду забезпечує парність числа одиниць у кодовій комбінації.
Даний циклічний код з перевіркою на парність забезпечує виявлення не тільки
однократних помилок, але й всіх помилок непарної кратності.
Наприклад, для коду з
= 4 інформаційна підматриця буде мати вигляд
Додаткову матрицю можна побудувати по залишкам діленням останнього рядка інформаційної підматриці, доповненої
нулями, на утворюючий поліном
Таким чином, додаткова матриця має вигляд
Отже, створюється матриця
Для побудови циклічного коду, що виправляє однократні або виявляє дворазові помилки, необхідно, щоб кожній одиночній помилці відповідав свій ідентифікатор, тобто залишок від ділення багаточлена прийнятої комбінації на утворюючий
багаточлен. Оскільки кількість можливих однократних помилок дорівнює n,
ділення на неприводимий багаточлен, ступеня
може дати
ненульових
залишків, тією необхідною умовою виправлення будь-якої одиночної помилки є
виконанням нерівності
(1)
Звідси визначається ступінь утворюючого полінома
(2)
і загальна довжина n кодової комбінації.
У таблиці наведене найбільші значення К и n для різних р.
Оскільки утворюючий багаточлен Р(х) повинен входити як співмножник у розкладанні двочлена
x
n
 
1  x2
z 1
 , те, використовуючи відзначені раніше
1
властивості цього двочлена, а також умову (2), можна вибрати утворюючий
поліном.
Оскільки утворюючий багаточлен ступеня , що входить у розкладання двочлена x n  1 може бути використаний як утворюючий поліном, необхідно, щоб для
кожної з n однократних помилок забезпечувався свій, відмінний від інших, залишок від ділення прийнятої кодової комбінації на утворюючий поліном. Це буде
мати місце за умови, якщо обраний неприводимий багаточлен, ступеня , будучи
дільником двочлена
x n  1 , не входить у розкладання ніякого іншого двочлена
x i +1, ступінь якого i < n.
Розглянемо як приклад спосіб вибору утворюючого полінома для побудови
циклічного коду, що містить К = 4 інформаційні символи й забезпечує виправлення
однократних помилок.
Відповідно до нерівності
лів n = 7 і кількість перевірочних символів
визначаємо загальну кількість симво=3.
Утворюючий поліном Р(х) повинен бути ступеня
= 3 і входити як співмнож-
n
2 z 1
 1. Тому що n = 7, то складові співник у розкладанні двочлена x  1  x
множники двочлена повинні бути не приводимими поліномами, ступені яких є
дільниками числа z = 3. До чисел, на які z = 3 ділиться без залишку, ставляться 1 і
3. Отже, співмножниками двочлена x 7  1 повинні бути не приводимі поліноми,
першого й третього ступенів.
x 7  1  ( x  1)( x 3  x  1)( x 3  x 2  1) .
Жоден зі співмножників ступеня 3 не входить у розкладання іншого двочлена
x n  1 ступеня n < 7. Тому кожний із цих співмножників може бути обраний як
утворюючий поліном.
Утворюючі поліноми кодів, здатних виправляти помилки будь-якої кратності,
можна визначати, користуючись наступним правилом Хемінга:
1.
По заданому числу інформаційних розрядів , визначається число переві-
рочних розрядів , необхідне для виправлення однократних помилок, і обирається
утворюючий поліном.
2.
Розглядаючи отриманий (n. k)- код як некоригуючий n - розрядний код,
визначають додаткові розряди для забезпечення виправлення однієї помилки в
цьому коді й обирають відповідний утворюючий поліном.
3.
Повторюється дана процедура стільки разів, поки не буде отриманий код,
що виправляє незалежні помилки до даної кратності включно.
Однак код, побудований таким чином, є неоптимальним з погляду числа надлишкових символів. Більш придатний код Боуза – Чоудхурі, що забезпечує мінімальне число перевірочних символів при заданому k. Математична структура цього
коду трохи відмінна від розглянутої раніше й характеризується більше складними
пристроями для виявлення й виправлення помилок. Особливістю цього коду є те,
що для будь-яких позитивних чисел z і t u існує циклічний код знатності
n  2 z  1 з кодовою відстанню d min  2t u  1 .
Висновки
В лекції розглянуті питання доцільності застосування циклічних кодів в системах передачі інформації, методи алгебраїчного опису процесів кодування і
декодування, матричне подання циклічних кодів.
Тестові запитання
1. До якого класу відноситься код з парним числом одиниць?
1) Блоковий роздільний лінійний несистематичний
2) Блоковий роздільний лінійний систематичний
3) Блоковий роздільний лінійний
4) Блоковий роздільний циклічний
2. До якого класу відноситься код Хемінга?
1) Блоковий подільний лінійний
2) Блоковий подільний лінійний несистематичний
3) Блоковий подільний лінійний систематичний
4) Блоковий подільний циклічний систематичний
3. Яка відстань називається кодовою?
1) Відстань між двома дозволеними комбінаціями
2) Максимальна відстань між двома дозволеними комбінаціями
3) Мінімальна відстань між двома дозволеними комбінаціями
4) Мінімальна відстань між двома забороненими комбінаціями
4. Яка з формул визначає кодову відстань коду, що виявляє помилки?
1) d min  2 g  1
2) d min  2 g  1
3) d min  g  1
4) d min  g  1
5. Яка з формул визначає кодову відстань коду, що виправляє помилки?
1) d min  2 g  1
2) d min  2 g  1
3) d min  g  1
4) d min  g  1
6. Яка з формул визначає імовірність невиявлених (невиправлених) помилок
в комбінаціях завадостійкого коду?
n
1) pн.п.  1  (1  pe )
2) pн.п.  1  (1  pe ) 
n
3) pн.п.  1  (1  pe ) 
n
g
C
i 1
i
n
g
C
i 1
i
n
pei (1  pe ) ni
pei (1  pe ) ni
g
4) pн.п.  1   Cni pei (1  pe )ni
i 1
7. Яку кодову відстань повинен мати код для виявлення двох помилок в
комбінації?
1)
dmin= 1
2)
dmin= 2
3)
dmin= 3
4)
dmin= 4
8. Кодова відстань коду дорівнює 5. Скільки помилок в комбінації він здатен
виявити?
1)
=3
2)
=4
3)
=5
4)
=6
9. Яку кодову відстань повинен мати код для виправлення трьох помилок в
комбінації?
1) dmin= 3
2) dmin= 5
3) dmin= 7
4) dmin= 9
10. Скільки помилок в комбінації здатен виправити код з кодовою відстанню
dmin= 9?
1)
=2
2)
=4
3)
=5
4)
=6
11. На яких позиціях розміщуються контрольні символи в кодових комбіна-
ціях завадостійкого лінійного блочного систематичного коду?
1) На перших
2) На останніх
3) Вперемішку
12. Яка з формул визначає операції обчислення елементів контрольного числа при декодуванні систематичних блочних лінійних кодів?
^
^
1) S j  a j  b j
^
2) S j  b j  b*j
^
3) S j  a j  b*j
13. Яка з формул визначає кількість контрольних символів r в кодовій комбінації, якщо відома кількість інформаційних символів k та кількість помилок, що
виправляються i  1, g ?
g
1) 2  1   Cni
r
i 1
g
2) 2r  1   Cni
i 1
g
3) 2r   Cni
i 1
4) 2
r 1
g
  Cni
i 1
14. Скільки контрольних символів r необхідно мати в кодовій комбінації систематичного коду, для виправлення однократних помилок, якщо кількість інформаційних символів k  64 ?
1) r = 7
2) r = 4
3) r = 6
4) r = 5
15. Чому дорівнює надмірність кодової комбінації систематичного завадостійкого коду (71, 64)?
1) 64/71
2) 7/64
3) 7/71
16. Який алгоритм використовується для виявлення помилок в кодових комбінаціях коду з парним числом одиниць?
17. Який алгоритм використовується для формування контрольного символу в кодовій комбінації коду з парним числом одиниць?
k
1) b   ai
o
i 1
18. Який алгоритм використовується для формування кодових комбінації систематичного інверсного коду?
k
1) bi  ai   ai
i 1
o
k
2) bi   ai
o
i 1
19. Який алгоритм використовується для визначення елементів контрольного
числа при декодуванні комбінацій систематичного інверсного коду?
k
1) bi  ai   ai
i 1
o
k
2) bi   ai
o
i 1
20. Яку кодову відстань має код Хемінга, який виявляє і виправляє одноразові помилки ?
1) dmin=4
2) dmin=3
3) dmin=2
21. Яку кодову відстань має код Хемінга, який виявляє і виправляє одноразові помилки і виявляє подвійні помилки?
1) dmin=4
2) dmin=3
3) dmin=2
22. На яких позиціях кодових комбінацій коду Хемінга розміщуються контрольні символи?
1) на парних
2) на непарних
3) на позиціях за номерами 2l ( l  0,1,2,3…)
23. Яка з матриць буде перевірочною для коду Хемінга (7, 4)?
1)
000111
111001
101011
2)
000111
011001
101010
3)
010111
011001
101011
24. Який із наборів формул визначає контрольні символи в комбінаціях коду
Хемінга (7, 4) ?
b1  a5  a6  a7
1) b2  a3  a6  a7
b4  a3  a5  a7
b1  a3  a5  a7
2) b2  a3  a6  a7
b4  a5  a6  a7
b1  a3  a6  a7
3) b2  a5  a6  a7
b4  a3  a5  a7
25. Які операції виконуються над двійковими поліномами ?
1) підсумовування та віднімання
2) підсумовування, віднімання та множення
3) підсумовування, віднімання, множення та ділення
26. Який поліном є неприводимим ?
1) ділиться на одиницю
2) ділиться сам на себе
ділиться на одиницю та сам на себе
3)
27. Чому дорівнює розрядність породжуючого полінома циклічного коду?
1) ступеню полінома
2) ступеню полінома мінус одиниця
3) ступеню полінома плюс одиниця.
28. Виберіть алгоритм формування комбінації циклічного коду.
r
1) F  x   G  x   x
2) F  x   G  x   x r P  x 
r
3) F  x   G  x   x  R  x 
4) F  x   Q  x   R  x 
29. Як обирається ступінь породжуючого полінома циклічного коду?
1) рівною кількості інформаційних символів
2) рівною кількості контрольних символів
3) рівною кількості інформаційних і контрольних символів
30. Чому дорівнює вектор помилки в кодовій комбінації циклічного коду?
31. Вкажіть правильний алгоритм виявлення помилок в комбінації циклічного коду.
1)
2)
3)

, R x 0
32. Який із векторів помилок відповідає помилці в 3 розряді 7-значного коду ?
1) E (x )= 0001000
2) E (x) = 0010000
3) E (x) = 0000001
33. Який простий метод лежить в основі виправлення помилок в кодових
комбінаціях циклічного коду ?
1)
0

4) Ri ( x)  Rem ( x)  
 0
34. Який поліном описує кодову комбінацію 0010101?
1) x5  x3  x
2) x 4  x 2  1
3) x6  x5  x 4  x3  x 2  x  1
Лабораторна робота №2
ВИВЧЕННЯ ВЛАСТИВОСТЕЙ І ПРИНЦИПІВ ПОБУДОВИ ЦИКЛІЧНИХ КОДІВ.
1 Ціль роботи
Закріплення та поглиблення знань принципів побудови радіотехнічних систем передавання дискретної інформації, що використовують завадостійкі блокові коди; дослідження процесів кодування та декодування циклічних кодів;
дослідження характеристик циклічного коду і його завадостійкості.
2 Методичні вказівки
При підготовці до виконання лабораторної роботи необхідно вивчити теми
9,10 по конспекту лекцій та рекомендовану літературу [1, с. 120 - 126; 3, с. 93 101; 6, с. 230 - 239]. Особливу увага звернути на наступні основні положення.
Розглянуті в попередній роботі коди Хемінга незручні тим, що на прийомному кінці лінії зв'язку в декодері необхідно запам'ятовувати матрицю коефіцієнтів αji і для виправлення помилок також працювати з матрицями, що ускладнює побудову декодувальних пристроїв. Тому були розроблені коди, які дозволяють спростити апаратну реалізацію.
У циклічних кодах всі операції кодування та декодування, виявлення і виправлення помилок здійснюються в зсувових регістрах шляхом циклічних перестановок символів кодових комбінацій.
Використання двійкових багаточленів дозволяє легко описувати всі процедури кодування та декодування.
Будь-яка комбінація циклічного коду містить n розрядів (символів).
n=k+r -число символів у кодовій комбінації (або число розрядів). n визначає розрядність двійкового багаточлена, що описує кодову комбінацію.
F(x) – двійковий n-розрядний багаточлен, що представимо у вигляді
F ( x)  an 1x n 1  an  2 x n  2  ...  a2 x 2  a1x  a0 x 0 ,
де коефіцієнти аi приймають значення "1" або "0" і відповідають двійковим
символам кодової комбінації.
Над двійковим багаточленом роблять операції:
-
додавання;
-
віднімання;
-
множення;
-
ділення.
Додавання та віднімання двійкових багаточленів – це додавання
коефіцієнтів при відповідних ступенях х по модулю два.
Множення двійкових багаточленів виробляється за загальними правилами
множення багаточленів з наступним приведенням подібних коефіцієнтів, що
складають шляхом додавання, при однакових ступенях х по модулю два.
Ділення двійкових багаточленів виробляється за загальними правилами
ділення багаточленів з використанням операцій множення, ділення та віднімання.
Використання теорії двійкових багаточленів дозволяє легко математично
представити операцію циклічного зсуву вліво – тобто множення багаточлена на
х.
F ( x)  x  an 1x n  an  2 x n 1  ...  a2 x3  a1x 2  a0 x .
Стандартний запис:
F ( x)  x  an  2 x n 1  ...  a1 x 2  a0 x  an 1 .
Розрядність двійкового багаточлена завжди дорівнює величині п, тобто розрядності відповідної кодової комбінації. Ступінь багаточлена дорівнює максимального ступеня х при нульовому коефіцієнті а.
В основі виконання операцій кодування та декодування циклічних кодів
лежить використання утворюючих багаточленів.
Утворюючий багаточлен G(х) – це багаточлен (поліном), що не приводиться, максимального ступеня r, отже, розрядність G(х) є r+1.
Тільки вибір багаточлена, що не приводиться, у якості утворюючого забезпечує однозначність при виправленні помилок. Відомо: М0 – число кодуємих
повідомлень алфавіту (число рівнів квантування). Тоді необхідна кількість
інформаційних символів
k  log 2 M 0  - округлення до найближчого більшого цілого числа.
g – кратність помилок, що виправляють. G(х) визначається по таблицях
після обчислення r по відомим значенням g, М0, k.
G(х) використовується на передавальному кінці лінії зв'язку для формування комбінації завадостійкого циклічного коду. G(х) також використовується на прийомному кінці лінії зв'язку для виявлення та виправлення помилок.
V(x) – багаточлен первинного коду на первинному кінці лінії зв'язку. Розрядність V(x) дорівнює k.
Існує два способи формування комбінацій F(x) циклічного коду.
1. F(x)=G(x)V(x) – розрядність k+r.
2. V(x)xr/G(x)=Q(x)+R(x) – розрядність k+r.
де: xr - багаточлен ступеня r, R(x) – залишок від ділення (розрядність r).
F(x)=V(x)xr+R(x)– розрядність k+r.
F(x) – це комбінація циклічного коду, що передається по каналу зв'язку.
Недолік першого способу: інформаційні та контрольні символи посідають
довільні місця в кодовій комбінації, що ускладнює декодування (на практиці не
використовується).
На прийомному кінці: F*(x).
Алгоритм перевірки F *( x)  Q * ( x)  R * ( x)
G( x)
R*(x)=0 – це означає, що в кодовій комбінації помилки немає або кодова
комбінація переходить в іншу дозволену комбінацію і помилка не виявляється.
R*(x)≠0 свідчить про наявність помилки.
Якщо у якості утворюючого багаточлена обирається неприводимий багаточлен, то число різних залишків дорівнює 2r-1 за умови, що вага вектора помилки w≤g.
Вектор помилки:
E( x)  F ( x)  F *( x) , (k+r) – розрядність вектора помилки.
Вага вектора помилки - це число одиниць у векторі помилки.
Залишок R*(x), одержуваний при діленні прийнятої комбінації F*(x) на
утворюючий поліном G(х) та вектора помилки Е(х) на G(х), в обох випадках
однаковий.
R*(x) у цьому випадку відіграє роль синдрому або контрольного числа.
Розглянемо загальний алгоритм виявлення та виправлення однократних
помилок(g=1). Число можливих варіантів помилок – k+r.
1. Ділимо прийняту кодову комбінацію на утворюючий поліном G(x).
2. Якщо вага залишку W менше або дорівнює кратності помилок, що виправляються, g, то в цьому випадку для виправлення помилки досить скласти
залишок із прийнятою кодовою комбінацією по модулю 2.
3. Якщо вага залишку більше кратності помилок, що виправляються, то в
цьому випадку роблять циклічний зсув прийнятої комбінації на один розряд вліво. Далі ділять зсунуту кодову комбінацію на утворюючий поліном
G(x) і порівнюють вагу залишку із кратністю помилок g, що виправляється. Цей процес повторюють доти, поки вага залишку W не стане рівною g.
Після цього складають по модуля 2 отриманий залишок з останньою зсунутою кодовою комбінацією та виконують стільки ж циклічних зсувів
вправо, скільки їх було виконано вліво.
4. У результаті всіх перерахованих вище дій одержують виправлену кодову
комбінацію.
3 Порядок виконання роботи

Для 3-х чисел, зазначених викладачем, одержати кодові комбінації ци-
клічного коду з параметрами 7,4. Утворюючий поліном використати
G(x)=x3+x+1.

Переконатися в тім, що в отриманих кодових комбінаціях відсутні по-
милки.

Ввести однократні помилки в кожну кодову комбінацію та показати
процес виявлення і виправлення помилок. Рекомендується спотворити один
контрольний символ і два інформаційних.

Ввести двократну помилку в одну з кодових комбінацій і показати про-
цес виявлення та виправлення помилки.

Для 3-х чисел, зазначених викладачем, одержати кодові комбінації ци-
клічного коду з параметрами 15,11. Утворюючий поліном використати
G(x)=x4+x+1.

Переконатися в тім, що в отриманих кодових комбінаціях відсутні по-
милки.

Ввести однократні помилки в кожну кодову комбінацію і показати
процес виявлення та виправлення помилок. Рекомендується спотворити один
контрольний символ і два інформаційних.

Ввести двократну помилку в одну з кодових комбінацій і показати про-
цес виявлення та виправлення помилки.

Використовуючи комп'ютерне середовище моделювання MATLAB, та
програму zikl_kod.mdl перевірити всі результати домашнього завдання.
4 Зміст звіту
У звіті приводяться:
- структурна схема лабораторної установки;
- результати розрахунків, зроблених до виконання лабораторної роботи;
- результати експериментальних досліджень, зіставлення їх, виводи та висновок.
5 Контрольні запитання.
1)
Навести загальні характеристики циклічних кодів.
2)
Закодувати зазначене викладачем число циклічним кодом (15,11). Вве-
сти однократну помилку в кодову комбінацію, показати процес декодування і
виправлення помилки.
3)
Закодувати зазначене викладачем число циклічним кодом (15,11). Вве-
сти двократну помилку в кодову комбінацію, показати процес декодування і
виправлення помилки.
4)
Пояснити загальні принципи: кодування, декодування та виправлення
помилок з використанням циклічних кодів.
5)
Привести структурну схему кодера циклічного коду 7,4. Пояснити
принцип її роботи.
6)
Привести структурну схему декодера циклічного коду 7,4. Пояснити
принцип її роботи.
Практичне заняття №3
«Завадостійкі блокові лінійні та циклічні коди»
Мета - з використанням вивченого теоретичного матеріалу навчитися оцінювати ефективність застосування завадостійкого кодування, кодувати лінійним
і ціклічним кодами Хемінга повідомлення джерел різної ємності, декодувати
повідомлення, виявляти виправляти однократні помилки.
Спочатку наводяться приклади розв'язання типових практичних задач,
потім надаються умови задач для самостійного рішення, причому числові значення для вирішення завдань дано в 10 варіантах.
Приклади розв'язання основних типів задач
Приклад
1. Для підвищення завадостійкості радіосистеми передавання
дискретної інформації застосоване завадостійке блокове кодування кодовими
комбінаціями довжиною n , які забезпечують виправлення g незалежних помилок в кожній комбінації при заданій імовірності помилкового приймання одного
розряду p e . Обчислити імовірність помилкового приймання кодової комбінації
при n  11, g  1, pe  10 4.
Розв’язання. Імовірність помилкового приймання кодової комбінації
обчислюється за формулою
g
pпом.  1  рправ.  ркор.п.  1  (1  ре )n   Cni реі (1  ре )ni ,
i 1
n!
.
i!(n  i)!
При g  1 імовірність виникнення некоректованих помилок
де Сni 
pпом.  1  1  ре   npe 1  pe 
Оскільки pe  1,
n
n1
.
pпом.  1  1  npe  npe  n(n  1)  pe2  n(n  1)  pe2  11  10  (10 4 ) 2  1,1  10 6.
Приклад 2. Для підвищення завадостійкості радіосистеми передавання
дискретної інформації необхідно застосувати завадостійке блочне кодування з
виправленням незалежних помилок від 1 до g в кодовій комбінації. Розмір алфавіту джерела повідомлень М. Обчислити кількість інформаційних k і контрольних символів в кодовій комбінації, якщо М =16; g =1,2.
Розв’язання. Кількість інформаційних символів обчислюється за формулою
k = log M = log 16 = 4.
Кількість контрольних символів знаходиться з рішення нерівності
g
2  1   Cki  r .
r
i 1
(4  r )!
,
2!(4  r  2)!
(4  r  1)(4  r )
2r  1  4  r 
, r  6.
2
2r  1  4  r 
Приклад 3. В радіосистемі передавання дискретної інформації застосоване завадостійке кодування з виправленням однократних помилок. Система
працює з джерелом М повідомлень, задане максимальне значення імовірності
помилкового приймання одного повідомлення pпом. . Визначити допустиме
значення імовірності помилкового приймання одного символу p e , якщо М=64,
p пом 10-6.
Розв’язання. Кількість інформаційних символів k в кодовій комбінації
k  log64  6 . Кількість контрольних символів r визначається з вирішення
нерівності 2r  1 6+r, r = 4.
Допустима імовірність помилкового приймання одного символу визначається з
вирішення рівняння
pпом  1  1  pe k  r  k  r  pe 1  pe k  r 1.
Оскільки ре<<1, аналогічно розв’язку прикладу 1
pпом.   k  r  k  r  1 pe2 .
Звідси
рпом.
106
ре 

 1,05  104 .
(k  r )(k  r  1)
10  9
Приклад 4. Радіосистема призначена для передавання
дискретних по-
відомлень алфавіту М. Визначити значення допустимих імовірностей помилок на
один символ при роботі натуральним двійковим кодом і завадостійким блочним
кодом, який виправляє однократні помилки, якщо задана імовірність помилкового приймання кодової комбінації pпом. . Обчислити еквівалентний виграш в завадостійкості в перерахунку на один символ за таких числових значень: М = 128,
pпом. = 10 –7.
Розв’язання. Кількість інформаційних символів k  log M  log128  7 .
Кількість контрольних символів r = 4 (з нерівності 2r – 1  7 + r).
При натуральному двійковому кодуванні
pпом  1  1  pe k  kpe .
Звідси
pпом 10 7
pe1 

 1,4  10  8.
k
7
Користуючись формулою, що одержана при розв’язанні приклада 3,
знаходимо
р
10 7
ре 2 

 3  10 5 .
(k  r )(k  r  1)
11  10
Еквівалентний виграш в завадостійкості
ре 2
3  10 5
В

 2,16  10 3 .

8
ре1 1,4  10
Приклад 5. В радіосистемі передачі дискретних повідомлень використо-
вується завадостійке кодування циклічним кодом, здатним виправляти одноразові помилки. Загальна кількість елементарних повідомлень, що передаються,
дорівнює М. Визначити кодову комбінацію для повідомлення за номером 10,
якщо М = 16.
Розв’язання. Визначимо кількість інформаційних і контрольних символів у кодовій комбінації:
k = log 16 = 4, 2r –1  4 + r, r = 3.
Кодова комбінація для повідомлення за номером 10 має вигляд 1 0 1
0, або подана в вигляді двійкового полінома
G(x) = x 3+x .
Для r =3 обираємо згідно з таблицею породжуючий поліном
Р(х) = х 3 +х 2+ 1.
Визначаємо комбінацію циклічного коду за формулою
F (x) = G (x)  x r  R (x),
де R(x) – залишок від ділення добутку G (x)xr на породжуючий
поліном P(x).
G(x) xr = (x3+x) x3 = x6 +x4 ,
x6 + x4
x3 + x2 + 1
+ x6 + x5 + x3
x3 + x2 +1
x5 + x4 + x3
+ x5 +x4 + x2
x3 + x2
+ x3 + x2 + 1
R(x) = 1
6
4
F(x) = x + x + 1, або 1 0 1 0 0 0 1.
Приклад 6. Цифрова система радіозв’язку використовує завадостійке кодування циклічним кодом, що виправляє одиничні помилки. Довжина кодової
комбінації за умов приклада 5 n = 7. Породжуючий поліном:
Р(х) = х3 + х2 + 1.
Прийнята кодова комбінація 1 1 1 0 0 0 1.
Перевірте, правильно чи помилково прийнята комбінація і за необхідності виправте її.
Розв’язання. Запишемо прийняту кодову комбінацію у вигляді двійкового полінома
Перевіримо комбінацію шляхом ділення її на породжуючий поліном
x 6 + x5 + x4 + 1 x3 +x2 + 1
+ x6 + x5 + x3
x3+x
x4 + x3 + 1
x4 +x3 + x
R*(x) = x + 1.

Наявність залишку R (x) свідчить про помилку в прийнятій кодовій
комбінації. Для виправлення помилки необхідно знайти вектор помилки Е (х) =
хі , і = 0, n-1 і виконати операцію
де F(x) – передана
комбінація. Запропоновані різні варіанти розв’язання цієї задачі. Розглянемо
найпростіший. Знайдемо еталонний залишок, який відповідає помилці в першому (старшому) розряді кодової комбінації. Для цього поділимо вектор помилки в
першому розряді на породжуючий поліном Е (х) : Р (х)
x6
x3 + x2 + 1
+x6 + x5 + x3
x3 + x2 + x
x5 + x3
+x5 + x4 + x2
x4 + x3 +x2
+x4 + x3 + x
R ет (х) = х2 + х.
Зафіксуємо значення еталонного залишку.
Залишок, який був одержаний при діленні прийнятої кодової комбінації
на породжуючий поліном, не співпадає з еталонним залишком
Ri ( x)  Reт ( х)  ( х  1)  ( х 2  х)  х 2  1.
Помилка не в першому розряді.
Здійснимо циклічний зсув прийнятої кодової комбінації на один розряд
справа наліво і знову поділимо на породжуючий поліном
(x6 + x5+ x4+1) x = x6 + x5 + x +1 x3 + x2 +1
+ x6 + x5 + x3
x3 + 1
x3 + x + 1
+ x3 +x2 + 1
R2 (x) = x2 + x
R2 ( x)  Reт ( x)  ( x 2  x)  ( x 2  x)  0 .
Рівність еталонного та одержаного залишків свідчить про помилку в другому розряді. Якщо рівність не досягнута, описаний процес циклічного зсуву і
ділення необхідно продовжувати до досягнення результату Ri ( x)  Rет ( x)  0 .
Номер спотвореного розряду визначається як кількість кроків зсуву плюс одиниця.
Приклад 7. В системі передачі інформації прийнята комбінація коду з парною кількістю одиниць 10101011001. Проаналізувати, правильно чи з помилками
прийнята кодова комбінація.
Розв’язання. Обчислимо контрольну суму:
S  1  0 1  0 1  0 1 1  0  0 1  0 .
Отриманий результат свідчить, що в даній кодовій комбінації відсутні
помилки непарної кратності (1,3,5,7,9,11). Помилки парної кратності не виявляються.
Задачі для самостійного розв’язання
Задача 1. Для підвищення завадостійкості системи передачі дискретної інформації застосовано завадостійке блочне кодування з виправленням одиночних
помилок в кожній кодовій комбінації. Обчислити імовірність помилкового
приймання кодових комбінацій, якщо задані довжина кодової комбінації n і
імовірність помилкового приймання одного символу p e .
Вихідні
дані
n
pe
Номер варіанта
0
1
2
3
7
8
9
10
10-7 10-6 10-5 10-4
4
11
10-3
5
12
10-4
6
13
10-5
7
14
10-6
8
15
10-7
9
16
10-6
Задача 2. В системі передачі дискретних повідомлень використовується завадостійке кодування кодом Хемінга. Закодувати повідомлення з порядковим
номером N , якщо задана загальна кількість елементарних повідомлень M .
Вихідні
дані
M
N
Номер варіанта
0
1
2
3
50
60
70
80
5
10
15
20
4
90
25
5
100
30
6
110
35
7
120
40
8
130
45
9
140
50
Задача 3. У системі передачі дискретних повідомлень використовується завадостійке кодування кодом Хемінга. Закодувати повідомлення з порядковим
номером N, якщо задана загальна кількість елементарних повідомлень М. Внести
помилку в i-їй розряд і показати процес виправлення комбінації.
Вихідні
дані
M
N
I
0
50
5
1
Номер варіанта
1
2
60
70
10
15
2
3
3
80
20
4
4
90
25
5
5
100
30
6
6
110
35
7
7
120
40
8
8
130
45
9
9
140
50
10
Задача 4. В системі передачі дискретних повідомлень використовується
завадостійке кодування циклічним кодом, виправляючим поодинокі помилки.
Закодувати повідомлення з порядковим номером N, якщо задана загальна кількість елементарних повідомлень M.
Вихідні
дані
M
N
Номер варіанта
0
1
2
3
16
15
14
13
16
16
16
16
4
12
16
5
11
16
6
10
16
7
9
16
8
8
16
9
7
16
Задача 5. В системі передачі дискретних повідомлень використовується
завадостійке кодування циклічним кодом, виправляючим поодинокі помилки.
Закодувати повідомлення з порядковим номером N , якщо задана загальна
кількість елементарних повідомлень M . Внести помилку в i -ий розряд і показати процес виправлення комбінації.
Вихідні
дані
M
Номер варіанта
0
1
2
3
16
16
16
16
4
16
5
16
6
16
7
16
8
16
9
16
N
1
2
3
4
5
6
7
8
9
10
i
4
3
2
4
3
2
4
3
2
4
Задача 6. Визначити коректуючу здатність коду, який має наступні
кодові комбінації xi
Вихідні
дані
0
1
2
Номер варіанта
3
4
5
6
7
8
9
x1
0000 0000 0000 0000 0000 0000 0000 0000 0000 0000
x2
0111 1110 0101 0011 1010 0111 1110 0011 1010 0111
x3
1001 0111 1010 1100 0101 1001 0111 1100 0101 1001
x4
1110 1001 1111 1111 1111 1110 1001 1111 1111 1110
Задача 7. Необхідно забезпечити передавання M0 повідомлень кодом з
парним числом одиниць. Визначити необхідну значність кода, розрахувати
надмірність і завадостійкість коду при умові, що імовірність спотворення одного символа комбінації дорівнює pe .
Вихідні
Номер варіанта
дані
M0
pe
0
16
10-3
1
32
10-4
2
64
10-5
3
128
10-6
4
256
10-7
5
512
10-8
6
7
8
9
1024 2048 4096 8192
10-9 10-4 10-5 10-6
Задача 8. Дискретне джерело породжує M0 повідомлень. Яку мінімальну
кількість розрядів повинні мати кодові комбінації рівномірного двійкового коду, призначеного для кодування цих повідомлень?
Вихідні
дані
M0
Номер варіанта
0
1
2
3
4
5
6
7
8
9
50
100
150
200
250
300
350
400
450
500
Висновки: У результаті вирішення чисельних прикладів 4 завдань
показана ефективність застосування завадостійких кодів для підвищення
енергетичної ефективності передачі повідомлень.
ЛЕКЦІЯ 7
ОПТИМАЛЬНИЙ КОГЕРЕНТНИЙ ПРИЙОМ ДИСКРЕТНИХ
СИГНАЛІВ
Мета – показати, що приймання сигналів в системах передачі інформації –
найбільш складна і неоднозначні задачі. Визначити основні засоби теорії оптимального приймання сигналів. Розглянути структурні схеми оптимальних когерентних приймачів, засвоїти методи розрахунку їх завадостійкості. В лекції будуть
розглянуті наступні питання:
1. Основні положення теорії оптимального приймання сигналів.
2. Синтез, правила розрізнення сигналів у випадку приймання повністю відомих сигналів на фоні нормального білого шуму.
3. Структурні схеми оптимальних приймачів
4.
Обчислення завадостійкості (імовірностей помилок розрізнення сигна-
лів) оптимальних когерентних приймачів.
1.Основні положення теорії оптимального приймання сигналів
Прийом сигналів - одна з найбільш складних теоретичних і інженерних задач
передачі повідомлень. Складність полягає в тому, що в пункті прийому повідомлення необхідно витягати з модульованих сигналів-переносників, які в процесі
проходження лінією зв'язку не тільки послабляються, але й піддаються впливам
різних факторів, що спотворюють їх і завад різного виду.
Досить бажано мати у своєму розпорядженні методи прийому, які були б найкращими(оптимальними) у даних конкретних умовах. Напрямок, пов'язаний з
відшуканням таких методів, називається теорією оптимального прийому.
Теоретичною основою рішення завдань оптимального прийому є теорія Байеса.
Деякі поняття теорії статистичних рішень. Нехай деяка випадкова фізична
величина, що назвемо причиною, може приймати безліч значень(витоків) П с
щільністю ймовірностей р(П), що вважається апріорною(заздалегідь відомою).
Нехай причина викликає появу іншої випадкової величини - наслідку Н, що також
може приймати безліч значень. Щільність імовірностей цих значень залежить від
конкретних наслідків. Тому ситуація описується безліччю умовних щільносте
імовірностей р(Н/П).
Статистичним рішенням називають процедуру, що полягає в тому, щоб, спостерігаючи конкретний наслідок
, указувати його причину, яка його
викликала . Тому що спостережуваний наслідок
може бути виклика-
ний будь-якою причиною П, можна визначити щільність імовірностей всіх можливих витоків, які могли викликати даний наслідок, тобто визначити функцію р(П |
). Ця функція називається апостеріорною (встановленою на підставі досвіду, що
мав місце, або спостереження) щільністю ймовірностей причин.
Основою для ухвалення статистичного рішення є теорема Байеса
де
- умовна щільність розподілу наслідків;
- безумовна щільність розподілу наслідків , обчислювана як
Значення цього інтеграла не залежить від П, оскільки інтегрування по цій
змінній ведеться по всій області її існування Г.
Видно, що апостеріорна щільність імовірностей причини р(П| ) залежить від
апріорної щільності ймовірностей причини р(П) і умовної щільності ймовірностей
наслідків
. Щільність р(
/П) є функцією П, її називають функцією правдо-
подібності.
У теорії статистичних рішень показано, що при ухваленні рішення про конкретне значення причини
що викликала спостережуваний (або заданий) наслідок
, найменшу помилку можна зробити, якщо виносити рішення на користь того
значення причини, при якій умовний розподіл
має найбільше значення.
Таке правило ухвалення рішення називається байєсівським.
Якщо апріорна щільність р(П) невідома, то якнайкраще, що можна зробити –
припустити рівномірність її розподілу. Тоді рішення буде виноситися на користь
того значення причини
спостережуваного наслідку
, при якому функція правдоподібності р(
) для
приймає найбільше значення. Це означає, що
таке значення причини вважається найбільш правдоподібним серед інших можливих значень. Подібна процедура ухвалення рішення називається правилом максимальної правдоподібності.
Застосуємо викладений підхід до рішення завдання оптимального прийому сигналів.
Суть процедури оптимального прийому. Установлено, що між коливаннями й
векторами можна встановити взаємо-однозначну відповідність. Тому замість
коливань можна розглядати відповідні вектори. Виходячи із цього, будемо вважати
причиною П випадковий вектор х, що відповідає переданим повідомленням (або
однозначно пов'язаний з ним вектор сигналів S, що переносять ці повідомлення), а
наслідком
- випадковий вектор, що відповідає суміші сигналу та шуму на вході
приймача. З урахуванням сказаного (1) можна записати або у вигляді
або в еквівалентному виразу (2) виді
де
- вектори в багатомірних просторах, що відповідають повідомлен-
ням x(t), сигналам s(t)=s[x(t),t] і вхідним реалізаціям y(t)=s(t)+n(t).
При передачі дискретних повідомлень безліч повідомлень x(t) може приймати
тільки кінцеву кількість дискретних значень
відповідає
кінцева
кількість
, який однозначно
сигналів,
що
Оптимальна процедура прийому полягає у визначенні величин
М значень
Значення
розрізняються
для всіх
, порівняння цих величин між собою й виборі найбільшої з них.
, якому відповідає максимальна величина
вважається
переданим сигналом і відповідно до цього на виході приймача відтворюється
повідомлення
.
Основні труднощі при рішенні такого завдання пов'язані зі знаходженням апостеріорного розподілу
. Найбільш детально завдання вирішене для завади
типу гаусівського білого шуму й набору сигналів, заздалегідь відомих у точці
прийому. Якщо при цьому всі повідомлення
вираження для
де
рівноймовірні й незалежні, то
можна привести до виду
- однобічна спектральна щільність потужності білого гаусівьского шуму;
А - деяка константа.
Знаходження сигналу
, максимізуючого величину (4) при спостереженні
на вході приймача деякої реалізації y(t), еквівалентно мінімізації показника
експоненти. Отже, оптимальний приймач повинен виносити рішення про прийом
того сигналу
, при якому функція
досягає максимуму, а величина
(5)
відповідно стає мінімальною.
З огляду на властивості векторного подання функцій часу, від вираження(5),
можна перейти до еквівалентного йому вираження
Вираження(5) або (6) являє собою алгоритм роботи оптимального приймача
дискретних повідомлень. Працюючи по цьому алгоритму, оптимальний приймач
повинен обчислити значення величини
системі сигналів
для всіх М, використовуваних у
(де j-1,2,…,М), зрівняти їх між собою, вибрати найменше
значення й відтворити на виході відповідне йому дискретне повідомлення.
Іншими словами, оптимальний приймач завжди відтворює на виході повідомлення, утворене тим сигналом, до якого найбільш близька вхідна реалізація y(t). У
геометричній інтерпретації це означає, що оптимальний приймач завжди відносить
вектор вхідної реалізації
до найближчого вектора сигналу.
Очевидно, що прийом сигналів у присутності шуму може приводити до помилок, оскільки вектор вхідної реалізації випадковий і з деякою ймовірністю може
потрапити в будь-яку точку простору. Допустимо, що вектор
переданого сигналу
до вектора сигналу
, утворений з
й шуму n, потрапив у точку, найбільш близько розташовану
.
Якщо i=j, то приймач прийме правильне рішення, якщо ж i≠ j , то рішення
приймача виявиться помилковим і замість переданого повідомлення
ково відтворить повідомлення
він помил-
.
Незважаючи на те, що оптимальний приймач дискретних повідомлень може
допускати помилкові рішення, їхня ймовірність у цього приймача мінімальна в
порівнянні з будь-якими реальними приймачами таких повідомлень.
Дослідження показують, що алгоритм може бути представлений у більше зручному для схемної реалізації виді й дозволяє одержати структурні схеми оптимальних приймачів і вираження для розрахунку завадостійкості.
2. Синтез, правила розрізнення сигналів у випадку приймання повністю
відомих сигналів на фоні нормального білого шуму
У задачі розпізнавання сигналів, що не містять випадкових параметрів(тобто
точно відомих), «причинами» є утворення сигналів
імовірності появи відповідних елементів
, імовірності яких рівні
. «Наслідками» є реалізації суми
сигналу й завади.
Кількісно опис ситуації зручно робити за допомогою розгляду векторів відповідних коливань. Замість сигналів
будемо оперувати однозначно відповід-
ними їм векторами
, а замість реалізацій y(t) – векторами
, координати яких визначаються вираженням, що у нашому
випадку запишемо так:
yi 
( k 1)Tc
 y(t )
kTc
Відповідно до теореми Байеса
j
(t )dt  aij   j ,
(1)
Як було відзначено, рішення звичайно виноситься на користь сигналу, що має
найбільшу апостеріорну ймовірність. Тому що знаменник не залежить від номера i,
вирішуюче правило(алгоритм рішення) визначається так:
Варто звернути увагу на те, що в цих виразах ---- щільності ймовірностей, тому що компоненти вектора , як видно з (1), є неперервними випадковими величинами.
У виразі (3) апріорні ймовірності
передачі елементів
повинні бути
задані. Отже, необхідно визначити тільки правдоподібності
. Це можна
зробити виходячи з того, що перешкода аддитивна. Тому що
,
щільність імовірності деякого значення вектора
ймовірності, що вектор перешкоди
що якщо
дорівнює щільності
прийме значення
. Звідси витікає,
- відома нам щільність імовірності вектора завади, то
Останній перехід справедливий тому, що сигнал і перешкоди - незалежні процеси.
Для подальшої конкретизації алгоритму необхідно задати певний вид завад. У
більшості випадків мають місце нормальні (гаусівські) або близькі до них перешкоди. Обчислення в цьому випадку виявляються найбільш простими. При гаусівських перешкодах кожний компонент вектора n  (n1 , n2 ,..., n j ,..., n N ) розподілений за
нормальним законом
 n 2j 
p пом (n j ) 
exp   2 .
 2 
2
2


1
(5)
У ряді випадків, зокрема, при рівномірному розподілі енергії перешкоди по
смузі розглянутих частот, компоненти вектора n j є незалежними випадковими
величинами. Тоді, як відомо,
 1
1
pïîì (n1 , n2 ,..., n N )   pïîì (n j ) 
exp

(2 2 ) N/2  2 2
j 1
N

2
n

j .
j 1

N
(6)
При залежних компонентах n j вираження для pпом (n1 , n2 ,..., n N ) істотно ускладнюється й цей випадок тут розглядати не будемо.
Відзначимо, що
n
2
j
 n ,тобто є квадратом довжини(норми) вектора переш2
коди.
Отже,
p( y / s j ) 
1
(2 2 ) N / 2
 y  si
exp 
2
 2
2

.

(7)
Відкинувши множники, що не залежать від номера сигналу i, що вирішує правило(3) можна представити у вигляді
(8)
Приймач, що працює по алгоритму(8), називається байесовским або приймачем максимальної апостеріорної ймовірності. Якщо апостеріорні ймовірності
елементів P( xi ) однакові, то вирішальне правило спрощується:
Відповідний приймач називається приймачем максимальної правдоподібності.
Правило(9) розкриває механізм роботи оптимального приймача.
Одержавши вектор y, за допомогою обробки реалізації y(t) необхідно обчислити відстань від його кінця до кінців векторів всіх можливих сигналів s i і винести
рішення на користь того сигналу, для якого величина y  si буде мінімальної, тому
що саме в цьому випадку функція (9) досягне максимуму. Коротко можна сказати,
що оптимальний приймач виносить рішення на користь сигналу «найближчого» до
y(t).
Вираження(9) досягає максимуму при мінімумі показника експоненти. Отже,
правило (9) можна записати в іншому виді:
або, з огляду на векторне подання
Тут перший член у дужках не залежить від номера i. Останній член - є енергія
i-того сигналу. Якщо енергії всіх сигналів однакові, що звичайно має місце, те цей
член також не залежить від номера i. Таким чином, що вирішує правило можна
записати так:
Справедливість такого переходу обумовлена тим, що другий член в (10) має
знак мінус і вираження (10) мінімізується, якщо цей член досягає максимуму.
Вираження(11) уже дозволяє визначити структуру оптимального приймача. Однак
зручніше це вираження представити в іншому виді. Дійсно, урахуємо, що
N
y a
j 1
i
ij

( k 1)Tc
 y(t )s(t , x )dt.
i
(12)
kTc
Тоді остаточно одержимо
RÌÏ  max
i
( k 1)Tc
 y(t )s(t, x )dt.
i
(13)
kTc
Ця структура називається оптимальним кореляційним приймачем, тому що
основна операція, що лежить у його основі, це операція кореляції y(t) з усіма
можливими сигналами s(t , xi ) .
Із проведеного розгляду треба, що до складу оптимального приймача повинні
входити генератори, що виробляють зразки сигналів s(t , xi ) , тотожні тим, які
використовуються на передавачі. Крім того, між роботою генераторів передавача й
приймача повинна дотримуватися синхронність і синфазність, тобто забезпечуватися ідеальна синхронізація.
3. Структурні схеми оптимальних приймачів
Малюнок 1-Спрощена структурна схема кореляційного приймача
Вихідні напруги інтеграторів, які пропорційні значенням кореляційних інтегралів, надходять на вхід блоку прийняття рішень БПР, в якому визначається
величина max
, по результатам чого виносять рішення про надходження на вхід
приймача сигналу
.
Оптимальне розрізняння повністю відомих сигналів можливе не тільки в кореляційному приймачі, а і в приймачі на узгоджених лінійних фільтрах УФ. Як
відомо, напруга на виході будь-якого лінійного фільтраh
де
- імпульсна характеристика лінійного фільтра.
Якщо використовується фільтр, узгоджений з сигналом, імпульсна характери-
стика фільтра
і тоді напруга на виході фільтра в момент
визначається значенням кореляційного інтеграла,
Напруги з виходів фільтрів знімаються в момент закінчення сигналу і подаються на вхід блоку прийняття рішень.
Малюнок 2- Спрощена структурна схема приймача на узгоджених фільтрах.
4. Обчислення завадостійкості (імовірності помилок розрізнення сигналів)
оптимальних когерентних приймачів
Оптимальний когерентний приймач забезпечує мінімальну середню помилку
розпізнавання повністю відомих сигналів на фоні нормального білого шуму.
Припустимо, що по системі передаються двійкові сигнали
та
на
фоні нормального білого шуму
На вході приймача маємо суміш сигналу з нулем
Будемо обчислювати кореляційні інтеграли
У симетричній системі імовірності помилкових переходів сигналів
Тоді середня помилка буде рівнятись
Можна показати , що при даних умовах
Розглянемо системи передачі двійкової інформації при використанні трьох типів сигналів.
1.Протилежні сигнали, які реалізуються в системах зв’язку як сигнали з фазовою маніпуляцією
2.Ортогональні сигнали, які реалізуються в системах з частотним поділом каналів
3. Системи з амплітудною маніпуляцією, коли передається один із сигналів
Виходячи з цього, можна записати формули для обчислення імовірностей помилок в системах когерентного приймання фазовою, частотною та амплітудною
маніпуляцією.
Видно що для забезпечення однієї і той же імовірності помилок в системах з
ЧМ необхідно мати вдвічі більше відношення сигнал/ шум ніж в системі ФМ, а
в системі АМ вчетверо більше.
Висновки
В лекції розглянуті основні положення теорії оптимального приймання сигналів в системах передачі інформації. Синтезовані алгоритми роботи оптимальних
когерентних приймачів повністю відомих сигналів на фоні нормального білого
шуму. Оптимальні формули для обчислення помилок розпізнавання сигналів з
фазовою, частотною та амплітудною модуляцією.
ЛАБОРАТОРНА РОБОТА №3
ДОСЛІДЖЕННЯ ОПТИМАЛЬНОГО КОРЕЛЯЦІЙНОГО ПРИЙМАЧА
ДВІЙКОВИХ РАДІОСИГНАЛІВ І ЙОГО ЗАВАДОСТІЙКОСТІ.
1 Ціль роботи
Дослідження принципів функціонування оптимальних кореляційних
приймачів двійкових сигналів, завадостійкості цих приймачів, порівняння результатів експериментальних досліджень з теоретично досяжними можливостями.
2 Методичні вказівки
При підготовці до виконання лабораторної роботи необхідно вивчити теми
12,13 по конспекту лекцій та рекомендовану літературу [1, с. 82 - 93; 2, с. 167 173; 5, с. 152 - 164; 6, с. 158 - 168. Особливу увага звернути на наступні основні
положення.
Приймання сигналів можливо, в принципі, виконувати різними способами
за допомогою різних приймачів. Серед множини всіх можливих приймачів існує
приймач, який забезпечує приймання з мінімальною імовірністю помилки. Такий
приймач зветься оптимальним.
Задачею теорії є визначення алгоритму роботи та структури оптимального приймача, а також обчислення імовірності помилки, яка може бути досягнута.
Із-за наявності завад безпомилкове однозначне розпізнавання, безумовно,
неможливе. Тому найбільше, що може зробити приймач на першому кроці – це
вказати (обчислити) імовірності присутності в заданій реалізації y(t)
y( t )  s( t, x i )  n ( t ) i  1, M,
де kТс<t<(k+1)Tc, кожного із можливих сигналів передавача s(t,xi).
На наступному кроці необхідно встановити правило винесення однозначного рішення. Тут можливі різноманітні підходи (критерії). В подальшому будемо
вважати (як це частіше всього робиться, що на вході приймача у вхідній суміші
y(t) присутній той сигнал, імовірність якого максимальна.
В основі синтезу оптимального приймача лежить теорема Байєса, яка
пов’язує імовірності причин і наслідків. У випадку розпізнавання дискретних
сигналів “причинами” є випадково виникаючі елементи повідомлень xi і відповідні їм сигнали s(t,xi).
Зрозуміло, що із-за випадковості завад кожна причина може викликати появу кожного наслідку будь-якої реалізації y(t). Це статистична ситуація описується матрицею умовних імовірностей
py1 ( t )  s( t , x1 ) py 2 ( t )  s( t , x1 )...py M ( t )  s( t , x1 )
py1 ( t )  s( t , x 2 ) py 2 ( t )  s( t , x 2 )...py M ( t )  s( t , x 2 )
.................................................................................
py1 ( t )  s( t , x M ) py 2 ( t )  s( t , x M )...py M ( t )  s( t , x M )
Слід підкреслити, що в ситуації, яка розглядається, приймач, в принципі, не
може зробити більше, ніж обчислити по оптимальному наслідку-реалізації y(t)
апостеріорні імовірності причин-сигналів s(t,xi) і імовірності відповідних їм
елементів повідомлення xi.
Апостеріорні імовірності причин при заданому наслідку yі(t) обчислюються
у відповідності з теоремою Байєса
 ps(t, x i )p pyy(jt()t) | s(t, x i ), i  1,2,...M; j  1,2,...M

p s( t , x i ) | y j ( t ) 
(4.1)
j


Тут p y j ( t ) – безумовна імовірність j-го наслідку, яка визначається згідно з
теоремою про повну імовірність


M


p y j ( t )   ps( t, x i )  p y j ( t ) | s( t , x i ) .
i 1
(4.2)
Отримавши у відповідності з (4.1) набір М апостеріорних імовірностей
P[S(t,x;)yj(t)] отримувач повинен обрати критерій, згідно з яким він буде приймати остаточне рішення про те, який, саме із сигналів передавався на інтервалі
часу, що розглядається. В нашому підході це буде сигнал з найбільшою апостеріорною імовірністю.
Прийнявши до уваги фізичну природу причин і наслідків в задачі, що розглядається, у відповідності з (4.1) і (4.2) отримаємо
pst, x i  y( t ) 
pst, x i wy( t ) | st, x i 
wy( t )
Тут і надалі р – імовірності, а w – густини імовірностей. Нагадаємо, що густини імовірностей w[y(t)|s(t,xi] при заданих результатах спостережень називаються правдоподібностями причин.
В задачі розпізнавання сигналів, які не містять випадкових параметрів (тобто точно відомих), “причинами” є сигнали, що надходять на вхід s(t,хі), імовірності яких дорівнюють імовірностям появи відповідних елементів хі. “Наслідками”
є реалізації суми сигналу і завади.
Кількісно опис ситуації зручно виконувати за допомогою розгляду векторів
відповідних коливань. Замість сигналів s(t,хі) ,будемо оперувати відповідними
їм векторами . x і=(аі1, аі2,..., аіN), а замість реалізацій у(t)-векторами . y і =(у1, у2,...,
уN), координати яких визначаються виразом
уі =
( k 1) Tc

у(t)yj(t)dt=aij+  j,
(4.3)
kTc
де  j=
( k 1) Tc

n(t)yj(t)dt .
kTc
У відповідності з теоремою Байєса
p(s i | y)  p(s i ) w[ y | s i ] / w ( y).
(4.4)
Як було сказано раніше, рішення звичайно виноситься на користь сигналу,
який має найбільшу апостеріорну імовірність. Так як знаменник (4.4) не залежить від номера і, то вирішуюче правило (алгоритм рішення) визначається так
R=
max
i
p(s i ) w ( y | s i ) 
max
i
p( x i ) w ( y | s i ),
(4.5)
У виразі(4.5) апріорні імовірності р(хі) передавання елементів хі повинні бути задані, тобто, необхідно визначити тільки функції правдоподібності w ( y | s i ).
Це можна зробити, виходячи з того, що завада адитивна. Так як
y  s i  n,
w ( y | s)  w[( y  s i | s i )]  w (n ). Останній перехід
то густина імовірності
справедливий тому, що і завади незалежні процеси.
Для подальшої конкретизації алгоритма необхідно задати вид завади. У більшості випадків мають місце нормальні (гаусові) або близькі до них завади. В
цьому випадку обчислення виявляються найбільш простими і вирішуюче правило (4.5) можна подати у вигляді
RБ=
max
i
p( x i ) exp[{ | y  s i |2 / 2 2 },
(4.6)
Де 2 – дисперсія (потужність) нормального “білого” шуму.
Приймач, який працює за алгоритмом (4.6), називається баєсівським або
приймачем максимальної апостеріорної імовірності. Якщо апріорні імовірності
елементів Р(хі) однакові, то вирішуючи правило спрощується
R MÏ  max exp{|  y  s i |2 / 2 2 }.
(4.7)
Відповідний приймач зветься приймачем максимальної правдоподібності.
Вираз (4.7) досягає максимуму при мінімумі показника експоненти, тобто
правило (4.7) можна записати у іншому вигляді
RМП=min | y  s i |,
або враховуючи векторне подання y та s i ,


RМП=min   y 2j  2 y ja ij   a ij2 .
j
j
 j

(4.8)
Тут перший член у скобках не залежить від номера і. Останній член – це
енергія і-го сигналу. Якщо енергії всіх сигналів однакові, що звичайно має місце
, то цей член також не залежить від номера і, таким чином , вирішуючи правило
можна записати так:
RМП =
max N
 yi a ij .
i j1
(4.9)
Вираз (4.9) вже дозволяє визначити структуру оптимального приймача. Однак зручніше цей вираз подати в другому вигляді. Дійсно, врахуємо, що
N
( k 1) Tc
j1
kTc
 yi a ij 
Тоді остаточно отримаємо

y(t)s(t,xi)dt.
RМП=
max
i
( k 1) Tc

y(t)s(t,xi)dt
(4.10)
kTc
Структурна схема, яка реалізує послідовність операцій, які відповідають
правилу (4.10), подана на рис.4.1.
Генератор s(t,x1 )

Генератор s(t,x2 )
Схема
вибору
максимуму
RМП

y(t)
..................
Генератор s(t,xN)

Рисунок 4.1 – Схема електрична структурна оптимального кореляційного
приймача.
Ця структура зветься оптимальним кореляційним приймачем, тому що основна операція , яка лежить в його основі – операція кореляції y(t) з усіма можливими сигналами s(t,xi).
Із проведеного розгляду витікає, що у склад оптимального приймача повинні входити генератори, які виробляють зразки сигналів s(t,xi), аналогічні тим,
котрі використовуються в передавачі. Крім того, між роботою генераторів передавача і приймача повинна зберігатися синхронність та синфазність, тобто забезпечуватись ідеальна синхронізація.
Розглянемо фізику роботи приймача на прикладі бінарної системи
зв’язку , яка використовує ортогональні сигнали у вигляді синусоїдальних коливань на інтервалах kTc  t  (k  1) Tc
S(t,x1)=Ssin1t; S(t,x2)=Ssin2t.
Частоти 1 і 2 повинні бути рознесені так, щоб виконувалась умова
  2 / Tc,тобто щоб сигнали були практично ортогональними.
Нехай переданий сигнал S(t,x1). Тоді на вході приймача діє реалізація із
суміші сигнала і шума
Y(t)= Ssin1t+n(t).
Кореляційний приймач обчислює дві величини
( k 1) Tc
R1=

[Ssin1t+n(t)] Ssin1tdt,
kTc
( k 1) Tc
R2=

[Ssin1t+n(t)] Ssin2tdt,
kTc
Кожен інтеграл складається з двох частин . Перша частина інтеграла в R1
дорівнює енергії сигналу, тому що
( k 1) Tc

(Ssin1t)2dt=Ес, а в R2 дорівнює нулю, тому що сигнали практично
kTc
ортогональні
( k 1) Tc

Ssin1t Ssin2tdt  0.
kTc
Що стосується других частин обох інтегралів, то вони створюють випадкові
величини.
1 =
( k 1) Tc

n(t)Ssin1tdt
,
2=
kTc
( k 1) Tc

n(t)Ssin2tdt.
kTc
Таким чином
R1=Ec+  1 ,
R2=  2
При багатократному повторенні описаної процедури обчислень частіше
всього буде, що при передаванні сигналу S(t,x1) Ec  1   2 і, таким чином, у
відповідності з правилом (4.10) приймач майже завжди буде виносити правильне
рішення. Однак, іноді, не зважаючи на те, що Ec- постійна позитивна величина,
може статися, що Ec  1   2 . Тоді у відповідності з (4.10) приймач винесе неправильне рішення, тобто буде мати місце помилка.
Аналогічно можна проаналізувати випадок , коли в системі зв’язку використовуються протилежні сигнали, наприклад
S(t,x1)=Ssin0t;
S(t,x2)=  S( t , x 2 )  S( t , x 2 )   sin 0 t  S  sin( 0 t  )
В цьому випадку, як легко показати, величини R1 і R2 приймають наступні
значення.
R2=  E c +  2 ,
R1=Ec+  1 ,
Ясно, що із-за наявності постійного негативного доданка в R2 ( Ec ), тобто
R1  R2  2Ec  1   2
помилкові рішення (R1>R2) при інших рівних умовах будуть прийматися рідше , ніж у попередньому випадку і імовірність помилок знизиться.
При передаванні повідомлень важливо оцінити вірогідність передавання
, яка у випадку дискретних повідомлень оцінюється імовірністю помилки, яка
при досить великих обсягах передаваної інформації може бути обчислена як
відношення помилково прийнятих елементів nпом до загального числа прийнятих
елементів nзаг.
pe 
Lim
nïîì
.
nçàã   nçàã
Дуже важливо знати, при яких енергетичних параметрах забезпечуються
дана вірогідність. Тому в теорії зв’язку вводять поняття завадостійкості, як
функції вірогідності від відношення сигнал/завада на вході приймача по потужності
p 
pe  f  c  .
 p3  âõ
Теоретичні дослідження оптимального приймання бінарних повністю відомих сигналів на фоні нормального “білого” шуму дають такі розрахунки формули для обчислення завадостійкості.
Фазова маніпуляція (ФМ)
pe 
  2q ,
1
1 Ô
2
2
Частотна маніпуляція (ЧМ)
pe 
  
1
1  Ô q2
2
Амплітудна маніпуляція (АМ)
 q 2 
1
,
pe  1  Ô 


2
 2 

де Ф () -табульована функція Крамна

t2

2
Ô ( ) 
e
 2 dt ,
2 0
P 
E
q 2   c âõ  c ,
2N0
 P3 
де Ec-енергія сигналу,
N0-спектральна густина нормального “білого”шуму.
3 Порядок виконання роботи
При виконанні роботи треба запустити пакет Matlab 6.5 та скористатися сукупністю програм, які дозволяють виконати математичне моделювання роботи
системи передавання даних
1) Для зняття залежності імовірності похибки на біт при когерентному
прийманні
двійкових
амлітудно-маніпульованих
сигналів
відкрити
файл
Koger_ampl.mdl. Структурна схема системи передавання даних зображена на
рисунку 4.2.
Генератор
бітової
послідовності
Модулятор
Канал
зв’язку
Приймач
Осцілограф
Схема підрахунку
імовірності
похибки
Рисунок 4.2 – Схема електрична структурна системи передавання двійкової
інформації.
2) Два рази кликнути “мишкою” на каналі зв’язку. Після цього відкриється окно вибору параметрів, яке зображене на рисунку 4.3. При знятті залежності
імовірності похибки від відношення сигнал/шум треба змінювати це відношення з 1 до 10 дБ з кроком 0.5 дБ.
Рисунок 4.3 – Окно вибору параметрів каналу зв’язку.
3) Після встановлення потрібного значення відношення сигнал/шум треба
підтвердити введення та почати симуляцію Для цього треба нажати кнопку
на панелі управління. Після обробки 10000 біт схема підрахунку імовірності похибки видає значення імовірності.
4) Для зняття залежностей імовірності похибки від відношення сигнал/шум
при частотній та фазовій маніпуляції треба відкрити файли Koger_frec.mdl
та Koger_phase.mdl відповідно та виконати знову пункти 2,3.
5) Зняти осцилограми у всіх контрольних точках схеми, тобто після генератору біт, модулятора, каналу зв’язку, у контрольних точках приймача.
6) Обчислити теоретичні значення імовірності похибки на біт у діапазоні відношень сигнал/шум від 1 до 10 дБ з кроком 0.5 дБ.
7) Порівняти теоретичні та практичні залежності імовірності похибки від відношення сигнал/шум. Зробити висновки.
4 Зміст звіту
У звіті приводяться:
-
структурна схема системи передавання інформації;
-
осцилограми у контрольних точках приймачів амплітудно-, частотно-
та фазо-маніпульованих сигналів;
-
графіки отриманих експериментальних та теоретичних залежностей
імовірності помилки від відношення сигнал/шум;
-
висновки по результатам досліджень.
5 Контрольні запитання
1. Дайте визначення оптимального приймача дискретних сигналів.
2. Сформулюйте і роз’ясніть теорему Байєса про зв’язок імовірностей причин і наслідків.
3. Визначте імовірності, що входять теорему Байєса.
4. Сформулюйте задачу розпізнавання сигналів в термінах теореми Байєса.
5. Сформулюйте вирішуюче правило при розпізнаванні повністю відомих
сигналів.
6. Визначте правдоподібності сигналів через густину імовірності завад.
7. Дайте визначення байєсівського оптимального приймача і приймача максимальної правдоподібності.
8. Наведіть схему оптимального кореляційного приймача точно відомих
сигналів.
9. Поясніть фізику роботи кореляційного приймача.
10.Наведіть визначення вірогідность передавання сигналів і формулу для
обчислення помилки передавання дискретних сигналів.
11.Наведіть визначення завадостійкості приймання дискретних сигналів.
12.Наведіть теоретичні формули для обчислення завадостійкості приймання
сигналів з фазовою, частотною та амплітудною маніпуляцією.
ЛЕКЦІЯ 8
ОПТИМАЛЬНИЙ НЕКОГЕРЕНТНИЙ ПРИЙОМ ДИСКРЕТНИХ СИГНАЛІВ І ЙОГО ЗАВАДОСТІЙКІСТЬ
Мета – вивчення методів приймання сигналів в реальних лініях зв’язку, коли
амплітуди і фази сигналів змінюються випадково в часі. Розглядаються структурні
схеми приймачів і наводяться розрахункові формули помилок розпізнавання.
В лекції розглядаються наступні питання:
1. Модель лінії зі змінними параметрами.
2. Алгоритм прийняття рішення при прийманні сигналів з випадковою початковою фазою.
3. Приймання сигналів з випадковою початковою фазою і флуктуючою амплітудою.
4. Некогерентні приймачі сигналів з використанням обробки за огинаючою.
1. Модель лінії зі змінними параметрами
Раніше було показано, що якщо імпульсний відгук лінії являє собою  функцію, то така лінія тільки послабляє переданий сигнал, не змінюючи його
форми. Нехай ослаблення сигналу а — випадкова величина, що повільно змінюється, практично постійна на інтервалах тривалістю Тс. Якби а була постійною й
відомою величиною, то здійснювався б прийом точно відомих сигналів з вирішуючим правилом
(1)
При випадковому значенні а треба усереднити результат за законом розподілу
р(а); тоді при рівноімовірних сигналах вирішуюче правило прийме вид
Зі співвідношення (2) видно, що при такому підході структура оптимального
приймача залишиться колишньою (інваріантною до випадкових значень а). Імовірність же помилок (за інших рівних умов) зростає. При випадковому значенні а ці
вирази необхідно усереднити по р(а). Зокрема, для протилежних сигналів усереднене значення ймовірності помилки
повинне визначатися відповідно до
вираження
Для розподілу р(а), що підкоряється закону Релея можна показати, що
де a  2 E c / N 0 . Неважко бачити, що при однакових значеннях а ймовірність
2
помилок, розрахована по формулі (4), значно перевищує ймовірність помилок у
випадку приймання сигналів з постійними параметрами. Фізична причина збільшення ймовірності помилок ясна: зростання а приводить до деякого зменшення
ймовірності помилок, однак падіння а приводить до значного
зростання цієї
ймовірності внаслідок відзначеного раніше «граничного ефекту».
2.Алгоритм прийняття рішення при прийманні сигналів з випадковою початковою фазою
Розглянемо далі випадок, коли лінія вносить у сигнали тільки випадкове зрушення початкової фази, що має місце в переважній більшості реальних ситуацій.
При цьому, якщо
то сигнали на виході лінії (вході приймача)
(5)
Вихідні сигнали (5) можна представити у вигляді двох складових з випадковими амплітудами, але постійними фазами:
(6)
де а й в можуть, на відміну від попереднього випадку, приймати й позитивні й
негативні значення.
З (6) видно, що дію лінії можна звести до появи в точці прийому двох складових сигналу: косинусоїдальної і синусоїдальної. Аналіз цього випадку, пов'язаний з
виконанням усереднення по обох випадкових параметрах а й в, досить громіздкий.
Приведемо кінцеве вираження для вирішуючого правила:
З нього видно, що оптимальний приймач робить кореляцію прийнятої реалізації y(t) зі зразками обох доданків сигналу. Зведення результатів у квадрати перед
додаванням і вибором максимуму викликане тим, що величини а й в можуть бути
як позитивними, так і негативними.
Цей алгоритм можна реалізувати й за допомогою узгоджених фільтрів. Тут
застосовуються детектори вихідних коливань узгоджених фільтрів, після яких і
виробляється відлік. Фізика процесів також ясна: якщо на вхід узгодженого із
сигналом s(t , xi ) фільтра подати зсунутий по фазі сигнал, то в силу лінійності
фільтра відбудеться запізнювання коливання й на виході фільтра. Тому відлік у
момент t= TС не збіжиться з максимумом напруги. У силу випадковості цього зсуву
найкращою стратегією виявляється відлік 140гинаючої, а не миттєвого значення
коливання.
Зрівняємо випадок прийому сигналів при відсутності випадкової фази (тобто
точно відомих за формою сигналів) і при наявності випадкової фази. Перший
випадок прийнятий називати когерентним, а другий — некогерентним прийомом
(саме цей випадок найчастіше має місце на практиці).
Pïîì  1/ 2 exp{ Ec / 2  N 0 }.
(8)
Порівнюючи вирази для когерентного й некогерентного прийому при однаковому значенні ймовірності помилки, можна встановити, який енергетичний програш дає застосування некогерентного прийому в порівнянні з когерентним.
3
6
Розрахунки показують, що для забезпечення Pïîì  10  10 при некогерентному
прийомі потрібне збільшення енергії сигналу на 15-30% у порівнянні з когерентним, тобто програш невеликий.
3. Приймання сигналів з випадковою початковою фазою і флуктуючою
амплітудою
У більш загальному випадку не ідеальність лінії обумовлює випадкові зміни
амплітуди й фази. Імовірність помилок від цього збільшується, тому що незалежно
діють обидва розглянутих фактору. Можна показати, що в цьому випадку ймовірність помилок при розпізнаванні бінарних ортогональних сигналів дорівнює
Pïîì  1/( 2  Ec / N 0 ),
(9)
де E c - середнє значення енергії прийнятих сигналів.
4. Некогерентні приймачі сигналів з використанням обробки за огинаючою
З використанням обробки за згинаючою розглянемо структурні схеми некогерентних приймачів і проаналізуємо їх роботу.
4.1 Некогерентний приймач ортогональних сигналів
Це сигнали з частотною модуляцією.
У випадку використання двійкових сигналів передаються символи «0» «1».
Для забезпечення квазиортогональності і можливості розрізнення сигналів у
приймачі необхідно забезпечити умову
, тобто мінімальне перек-
риття спектрів радіоімпульсів. Достатня структурна схема в цьому випадку має
вигляд
СФ – смуговий фільтр,
АД – амплітудній детектор,
ФНЧ – фільтр ніжніх частот,
БПР – блок прийняття рішень.
Смугові фільтри узгодженні з спектрами сигналів
пропускання
і
за смугою
.
Мається на увазі, що суміш сигналу з завадою
обробляється
(фільтрується і підсилюється) у спільному лінійному тракті
рпиймача. У блоці прийняття рішень приймається рішення на користь того сигналу
чи
, який забезпечує більшу напругу огинаючої на вході БПР.
Одночасно на вході приймача завжди існує тільки один сигнал
. Тому на
вході ФНЧ виробляються огинаючі суміші сигналу з шумом. Помилка
розпізнавання трапляється у випадку, коли огинаюча суміші сигналу з шумом
менша, ніж огинаюча шуму. Її імовірність одчислюється за формулою
4.2 Приймання сигналів з випадковою початковою фазою при використанні відносної фозової маніпуляції
При відносній фазовій маніпуляції інформація міститься не в різницї фаз
прийнятого і опорного сигналу, який виробляється в опорному генераторі приймача, а в різниці фаз поточного і посереднього прийнятих сигналів. Позначимо
буквою «ℓ» номер прийнятого сигналу в послідовності вхідних сигналів
якщо різниця фаз
. Тоді,
, виноситься рішення про приймання сигналу
, який містить сигнал «0», який містить повідомлення
, виноситься рішення про приймання сигналу
. Якщо
, який містить
сигнал «1»
Достатня структурна схема приймача сигналів з відносною фазовою маніпуляцією має вигляд
СФ – смуговий фільтр,
ФД – фазовий детектор,
ЛЗ – лінія затримки,
ФНЧ – фільтр нижніх частот,
БПР – блок прийняття рішень.
На вхід СФ надходить поділена в лінійному тракті приймача суміш сигнала з
завадою
.
На перший вхід фазового детектора надходить сигнал
дою, а на другий вхід сигнал, затриманий на величину
в суміші з зава. Якщо різниця фаз
дорівнює нулю, в БПР приймається рішення про передавання і приймання
,
якщо фази протилежні, приймається рішення про передавання «1».
В цьому приймачі сигналів з відносною фазою маніпуляцією імовірність помилки розрізнення рівняється:
Висновки
В лекції розглянуті методи приймання сигналів в каналах із змінними параметрами, наведені структурні схеми приймачів із випадковою початковою фозою і
флуктуючою амплітудою. Показано, що флуктуації параметрів сигналу приводять
до суттєвого зниження завадостійкості. Наведені розрахункові формули імовірності помилок розрізнення сигналів.
Тестові запитання
1. Маємо сукупність причин П і , і  1, М та сукупність наслідків C j ,
j  1, L . Яка з формул дозволяє обчислити апостеріорну імовірність причин
p( Пі / C j ) , якщо спостерігається наслідок C j ?
1) p  Пi / C j   p  Пi  p  C j 
2) p  Пi / C j  
p  Пi  p  C j 
p  C j Пі 
3) p  Пi / C j  
p  Пi  p  С j Пi 
p C j 
2. Передається дискретне повідомлення xi із алфавіта i  1, M , приймається його оцінка
. Як співвідносяться апостеріорна імовірність
і
апріорна p ( xi )
3. Апріорна імовірність передавання повідомлення p  xi   0,2 ; імовірність переходу
імовірність приймання
апостеріорна імовірність передавання
. Чому дорівнює
?
1) 0,4
2) 0,5
3) 0,6
4) 0,7
4. Яка з формул визначає правило рішення при прийманні дискретних
сигналів по критерію Байєса ?
5. Яка з формул визначає правило рішення приймача дискретних сигналів по критерію максимальної правдоподібності?
1) R  max p  xi 
i
6. При якому законі розподілу апріорних імовірностей рішення по критерію Байєса і критерію максимальної правдоподібності дає однаковий результат?
1) закон Гауса
2) закон рівних імовірностей
3) закон Релея
7. Яка імовірність в теорії рішень має назву “функція правдоподібності”?
1)
2)
3)
4)
8. По системі зв’язку передається інформація, яка формується повідомленнями з алфавіту х1...х4, апріорні імовірності яких однакові. Відома матриця
імовірностей переходів
гляд
;
, фрагмент якої при прийманні
;
;
має ви. Яке пе-
редане повідомлення зафіксує оптимальний приймач?
1) х1
2) х2
3) х3
4) х4
9. Система передачі дискретних повідомлень характеризується матрицею
імовірностей переходів.
Яка сукупність імовірностей має максимальні значення?
10. По каналу зв’язку передаються повідомлення x1 і x2 з апріорними
імовірностями p  x1   0,7 і p  x2   0,3 . Відома матриця імовірностей переходів
;
;
;
. Чому
дорівнює апостеріорна імовірність передавання х1, якщо прийнято повідомлення
?
1) 0,06
2) 0,07
3) 0,24
4) 0,63
11. Якою з формул визначається середня імовірність помилки при когерентному прийманні дискретного ФМ сигналу?
1) pe  0,5 1  Ф


2Е N0 


2) pe  0,5 1  Ф


Е N0 

3) pe  0,5 1  Ф


Е 2 N0 



12. Якою з формул визначається середня імовірність помилки при когерентному прийманні дискретного ЧМ сигналу?
1) pe  0,5 1  Ф



2Е N0 

2) pe  0,5 1  Ф


Е N0 


3) pe  0,5 1  Ф


Е 2 N0 


13. Якою з формул визначається середня імовірність помилки при когерентному прийманні дискретного АМ сигналу?
1) pe  0,5 1  Ф


2Е N0 


2) pe  0,5 1  Ф


Е N0 

3) pe  0,5 1  Ф


Е 2 N0 



14. Який вигляд має функція Крампа Ф   ?
1) Ф   

2
1
t
 е 2 dt
2 0

2
2
t
2
2) Ф   
е
dt

2 0
3) Ф   

2
1
t
е 2 dt

2 2 0
15. Який вигляд має правило рішення по критерію максимума правдоподібності при прийманні рівноімовірних дискретних сигналів?
Tc
1) R  max  y (t ) Si (t )dt
i
0
Tc
2) R  max  y 2 (t ) Si (t )dt
i
0
Tc
3) R  max  y(t ) Si 2 (t )dt
i
0
16. Який вигляд має імпульсний відгук оптимального узгодженого фільтра?
1) hi (t )  Si Tc  t 
2) hi (t )   Si Tc  t 
3) hi (t )   Si (t )
17. Яке співвідношення пов’язує тривалість дискретного сигналу Тс і
ширину смуги пропускання оптимального фільтра, узгодженого по ширині
смуги?
1) f c  2 Tc
2) f c  3 Tc
3) f c  (1...1,5) Tc
18. Чому повинна дорівнювати ширина смуги пропускання оптимального
фільтра, узгодженого по смузі, якщо тривалість сигналу Tc  2 мкс
1) f c  2МГц
2) f c  1МГц
3) f c  0,5МГц
19. На вхід оптимального узгодженого фільтра надходить прямокутний
радіоімпульс тривалістю Тс . Чому дорівнює тривалість вихідного сигналу?
1) Тс
2) 2Тс
3) 3Тс
20. Яке співвідношення між вхідними відношеннями сигнал/шум необхідне для забезпечення рівних імовірностей помилкового приймання сигналів
АМ, ЧМ і ФМ?
2
1) q АМ

2E
,
N0
2
qЧМ

E
,
N0
2
qФМ

E
2 N0
2
2) q АМ

E
,
2 N0
2
qЧМ

2E
,
N0
2
qФМ

E
N0
2
3) q АМ

E
,
2 N0
2
qЧМ

E
,
N0
2
qФМ

2E
N0
21. Який вид модуляції сигналів застосовується для боротьби з випадковою початковою фазою сигналів?
1) АМ
2) ЧМ
3) ФМ
4) ВФМ
22. Який вид модуляції сигналів найбільш придатний для застосування в
каналах зв’язку з випадковою початковою фазою і флуктуючою амплітудою?
1) АМ
2) ЧМ
3) ФМ
4) ВФМ
23. Якою з формул визначається імовірність помилки некогерентного
приймання двійкових АМ сигналів?
1) pe  0,5exp   Ec 4 N0 
2) pe  0,5exp   Ec 2 N0 
3) pe  0,5exp   Ec N0 
24. Якою з формул визначається імовірність помилки некогерентного
приймання двійкових ЧМ сигналів?
1) pe  0,5exp   Ec 4 N0 
2) pe  0,5exp   Ec 2 N0 
3) pe  0,5exp   Ec N0 
25. Якою з формул визначається імовірність помилкового приймання
двійкових ВФМ сигналів методом порівняння фаз?
1) pe  0,5exp   Ec 4 N0 
2) pe  0,5exp   Ec 2 N0 
3) pe  0,5exp   Ec N0 
26. По системі зв’язку передаються сигнали S1  t  і S2  t  з відомими апріорними ймовірностями p  S1  і p  S2  та ймовірностями хибних переходів
p  S1 S2  і p  S2 S1  . Чому дорівнює середня імовірність помилкового прий-
мання?
1) pe  p  S1  p  S1 S2   p  S2  p  S2 S1 
2) pe  p  S1  p  S2 S1   p  S2  p  S1 S2 
3) pe  p  S1  p  S1 S1   p  S2  p  S2 S2 
4) pe  p  S1  p  S2 S2   p  pS2  p  S1 S1 
27. Яке співвідношення між вхідними відношеннями сигнал/шум необхідне для забезпечення рівних імовірностей помилки некогерентного приймання сигналів АМ, ЧМ, ВФМ?
2
1) q АМ 
Е
Е
Е
2
2
, qЧМ

, qВФМ

4 N0
2 N0
N0
2
2) q АМ 
Е
,
N0
2
3) q АМ 
Е
,
N0
2
qЧМ

Е
,
4 N0
2
qВФМ

Е
2 N0
2
qЧМ

Е
,
2 N0
2
qВФМ

Е
4 N0
28. Яке відношення сигнал/шум E N 0 необхідно забезпечити на вході
некогерентного приймача АМ сигналів, якщо задана імовірність помилкового
приймання pe ?
1) E N 0  4 ln 1 2  e
2) E N 0  2 ln 1 2 e
3) E N 0  ln 1 2  e
29. Яке відношення сигнал/шум E N 0 необхідно забезпечити на вході
некогерентного приймача ЧМ сигналів, якщо задана імовірність помилкового
приймання pe ?
1) E N 0  4 ln 1 2 e 
2) E N 0  2 ln 1 2 e 
3) E N 0  ln 1 2 e 
30. Яке відношення сигнал/шум E N 0 необхідно забезпечити на вході приймача ВФМ сигналів, якщо задана імовірність помилкового приймання pe ?
1) E N 0  4 ln 1 2 e 
2) E N 0  2 ln 1 2 e 
3) E N 0  ln 1 2 e 
ЛАБОРАТОРНА РОБОТА № 4
ДОСЛІДЖЕННЯ НЕКОГЕРЕНТНОГО ПРИЙМАЧА ДВІЙКОВИХ
РАДІОСИГНАЛІВ І ЙОГО ЗАВАДОСТІЙКОСТІ
1 Ціль роботи
Дослідження принципів функціонування некогерентного приймання
приймачів двійкових сигналів, завадостійкості приймачів, порівняння результатів експериментальних досліджень з теоретично досяжними можливостями.
2 Методичні вказівки
При підготовці до виконання лабораторної роботи необхідно вивчити тему 14 по конспекту лекцій та рекомендовану літературу [1, c. 93-102; 2, с. 178 158; 5, с. 164 - 167; 6, с. 168 – 183]. Особливу увага звернути на наступні основні положення.
В лабораторній роботі №4 розглянуті теоретичні засади приймання дискретних радіосигналів у випадку, коли лінія зв’язку тільки послаблює сигнал,
не змінюючи його форми, тобто випадок приймання сигналів з повністю відомими параметрами. В реальних умовах форма сигналу спотворюється. Якщо
послаблення сигналу а – випадкова величина, що повільно змінюється, але
практично постійна на інтервалах Тс приймання здійснюється за вирішуючим
правилом
R=max p(xi)w (( y | s i ), a )
(5.1)
При випадковому значенні а необхідно осереднити результат за законом
розподілу w(a), тоді при рівно імовірних сигналах вирішуючи правило прийме
вигляд

R  max  w (( y | s i ), a ) w (a )da
(5.2)
0
Із співвідношення (5.2) витікає, що при такому підході структура оптимального приймача залишиться такою ж, як і у випадку цілком відомих сигналів.
Імовірність помилкового приймання протилежних сигналів у випадку,
коли розподіл w(a) за законом Релея, обчислюється за формулою

a
pe  0,51 
2  a2


,

p 
2
де a  Ec / N 0  2q  2 c  .
 p3  âõ
Розглянемо далі випадок, коли лінія вносить в сигнали тільки випадковий
зсув початкової фази, що має місце в переважній більшості реальних ситуацій.
При цьому, якщо
S(t,xi)=Scosit (0<t  Tc),
Сигнали на виході лінії (вході приймача)
Sвих(t,xi)=Scos(it-0)
(5.3)
Вихідні сигнали (5.3) можна подати у вигляді двох складових із випадковими амплітудами, але постійними фазами
S(t,xi)=Scoscosit-Ssinsinit=bScosit-c Ssinit,
(5.4)
Із (5.4) видно, що спотворюючу дію лінії можна звести до появи в точці
приймання двох складових сигналу: косинусоїдниї та синусоїдної. Алгоритм
роботи приймача в цьому випадку
2
2
 ( k 1)Tc
  ( k 1)Tc
 
R  max   y(t )  S  cos i tdt     y(t )  S  sin i tdt)  
  kT
 
 kTc
  c
 

(5.5)
Із цього виразу видно, що оптимальний приймач виконує кореляцію
прийнятої реалізації y(t) із зразками обох складових сигналу (5.4). Зведення
результатів у квадрати перед складанням та виборам максимуму викликано
тим, що величини b та с можуть бути як позитивними, так і негативними.
Структурна схема, яка відповідає алгоритму (5.5) при М=2, наведена на рис.
5.1а. Цей алгоритм можна реалізувати також і за допомогою узгоджених фільтрів та детекторів огинаючих вихідних коливань (рис. 5.1б), після яких і береться відлік.
Scos(1 t)
y(t)
 ()dt
 2
 ()dt
 

2
Схема
вибору
Rmax
Ssin(1 t)
Scos(2 t)
 ()dt
 2
 ()dt
 2

x

Ssin(2 t)
а)
Фільтр
y(t)
S( t , x1 )
Фільтр
S( t , x1 )
t=Tc
Детектор
Детектор
R1
Схема
вибору
Rmax

x
R2
б)
Рисунок 5.1 – Структурні схеми оптимальних приймачів при невідомій початковій фазі сигналів, реалізованих на основі кореляційної обробки (а) та на
основі узгоджених фільтрів (б).
Фізика процесів також зрозуміла: якщо на вхід узгодженого з сигналом
S(t,xi) фільтра подати зсунутий по фазі сигнал, то завдяки лінійності фільтра має
місце затримка коливання на виході фільтра. Тому відлік в момент t=Tc не
співпадає з максимумом напруги. Враховуючи випадковість цього зсуву
найкращою стратегією є відлік огинаючої, а не миттєвого значення коливання.
Співставимо випадок приймання сигналів при відсутності випадкової фази (тобто точно відомих по формі сигналів) і при наявності випадкової фази.
Перший випадок прийнять називати когерентним, другий – некогерентним
прийманням. Некогерентне приймання найчастіше застосовується в реальних
системах зв’язку.
При некогерентному прийманні ортогональних сигналів (частотній
маніпуляції) імовірність помилки дорівнює

pe  0,5 exp  Ec 2 N 0   0,5 exp  q 2 2

(5.6)
При некогерентному прийманні амплітудно-маніпульованих сигналів

pe  0,5 exp  Ec 4 N 0   0,5 exp  q 2 4

(5.7)
Співставляючи вирази при однакових значеннях імовірності помилки,
можна встановити, який енергетичний програш дає застосування некогерентного приймання у порівнянні з когерентним. Розрахунки показують, що для забезпечення ре=10-3...10-6 при некогерентного прийманні необхідно збільшувати
енергію сигналу на 15-30% у порівнянні з когерентним, тобто програш невеликий.
У більш загальному випадку неідеальність лінії обумовлює випадкові
зміни амплітуди і фази. Імовірність помилок при цьому збільшується, тому що
незалежно діють обидва розглянутих фактори. Можна показати, що в цьому
випадку імовірність помилок при розпізнаванні бінарних ортогональних сигналів (частотна маніпуляція) дорівнює
pe  1
2  E
c
N0

де Ec – середнє значення енергії сигналів, що приймаються.
3 Порядок виконання роботи.
При виконанні роботи треба запустити пакет Matlab 6.5 та скористатися
сукупністю програм, які дозволяють виконати математичне моделювання роботи системи передавання даних
1. Для зняття залежності імовірності помилки на біт при некогерентному
прийманні двійкових амлітудно-маніпульованих сигналів відкрити файл
Nkoger_ampl.mdl. Структурна схема системи передавання даних зображена на
рисунку 5.2.
Генератор
бітової
послідовності
Модулятор
Канал
зв’язку
Приймач
Осцілограф
Схема підрахунку
імовірності
похибки
Рисунок 5.2 – Структурна схема радіосистеми некогерентного приймання
бінарних сигналів
2. Два рази кликнути “мишкою” на каналі зв’язку. Після цього відкриється
вікно вибору параметрів, яке зображене на рисунку 5.3. При знятті залежності імовірності похибки від відношення сигнал/шум треба змінювати це
відношення з 1 до 10 дБ з кроком 0.5 дБ.
Рисунок 5.3 – Вікно вибору параметрів каналу зв’язку.
3. Після встановлення потрібного значення відношення сигнал/шум треба
підтвердити введення та почати симуляцію Для цього треба нажати кнопку
на панелі управління. Після обробки 10000 біт схема підрахунку імовірності похибки видає значення імовірності.
4. Для зняття залежностей імовірності помилки від відношення сигнал/шум
при частотній та відносній фазовій маніпуляції треба відкрити файли
Nkoger_frec.mdl та Nkoger_phase.mdl відповідно та виконати знову пункти
2,3.
5. Зняти осцилограми у всіх контрольних точках схеми, тобто після генератору біт, модулятора, канала зв’язку, у контрольних точках приймача.
6. Обчислити теоретичні значення імовірності похибки на біт у діапазоні відношень сигнал/шум від 1 до 10 дБ з кроком 0.5 дБ.
7. Порівняти теоретичні та практичні залежності імовірності похибки від відношення сигнал/шум. Зробити висновки.
4 Структура звіту
У звіті приводяться:
- структурна схема системи передавання інформації;
- осцилограми у контрольних точках приймачів амплітудно- та частотноманіпульованих сигналів;
- графіки отриманих експериментальних та теоретичних залежностей
імовірності помилки від відношення сигнал/шум;
висновки по результатам досліджень.
5 Контрольні запитання і завдання
1.
Наведіть структурні схеми оптимальних приймачів в каналі з випадковими амплітудою і фазою.
2.
Дайте визначення когерентного і некогерентного приймання.
3.
Наведіть розрахункові формули для обчислення імовірності помилок
при прийманні частотно- і амплітудно маніпульованих сигналів з випадковою початковою фазою.
4.
Порівняйте імовірності помилок при однакових енергіях сигналів при
когерентному і некогерентному прийманні.
5.
Порівняйте необхідні енергії сигналів при однакових імовірностях помилок у випадках когерентного і некогерентного приймання.
6.
Наведіть розрахункову формулу для обчислення імовірності помилки
при некогерентному прийманні частотно-маніпульованих сигналів з
випадковими амплітудою і початковою фазою.
7.
Наведіть структурну схему оптимального некогерентного приймача
амплітудно-маніпульованих сигналів. Поясніть принцип її роботі. При
поясненні наведіть осцилограми в контрольних точках схеми.
8.
Наведіть структурну схему оптимального некогерентного приймача
частотно-маніпульованих сигналів. Поясніть принцип її роботі. При поясненні наведіть осцилограми в контрольних точках схеми.
9.
Об’ясніть для чого використовується відносна фазова маніпуляція.
Наведіть структурні схемі реалізації кодеру та декодеру сигналів з
відносною фазовою маніпуляцією.
Практичне заняття № 4
"Когерентне и не когерентне приймання дискретних сигналів та його
завадостійкість"
Мета заняття: З використанням вивченого теоретичного матеріалу навчитися розраховувати завадостійкість різних систем передачі дискретних сигналів з різними видами модуляції, порівняти їх за енергетичною ефективністю.
Спочатку наводяться приклади розв'язання типових практичних з, потім
формулюються умови задач для самостійного рішення, причому числові значення для вирішення задач дано в 10 варіантах.
Приклади розв’язання основних типів задач
Приклад 1. Визначити необхідне відношення сигнал/шум q2 на вході демодулятора цифрової радіосистеми передавання інформації за заданою
імовірністю помилки на один символ ре , якщо реалізується оптимальне когерентне приймання нефлуктуючих сигналів з амплітудною, частотною та фазовою маніпуляцією, ре = 10-4.
Розв’язання. Необхідне відношення сигнал/шум q2 знаходять із загальної формули
pе 
1
1  Ф ,  2  kc q 2 ,
2
де Ф() – табульована функція Крампа;
kc = 2 при ФМн, kc = 1 при ЧМн, kс =
1
при АМн.
2
Ф   1  2 pe  1  2  10 4  0,9998,   3,70 ;
АМн
ЧМн
ФМн
q2
 3,70 , q 2  27,25  14,4 дБ ;
2
q 2  3,70 , q 2  13,70  11,4 дБ ;
2q 2  3,70 , q 2  6,86  8,4 дБ .
Приклад 2. Визначити необхідне відношення сигнал/шум q2 на вході оптимального некогерентного демодулятора нефлуктуючих сигналів з амплітудною і частотною маніпуляцією, якщо задана імовірність помилки на один символ
pе ; pе = 10-4.
Розв’язання. Необхідне відношення сигнал/шум знайдемо із загальної
формули
pe  1 2exp  kc q 2  , kc  1 4 при АМ н , kc  1 2 при ЧМ н ;
q 2  (1 kc )ln 1 (2 pe ) ;
АМн
q 2  4ln  5  103   34,06  15,3 дБ ;
ЧМн
q 2  2ln  5  103   17,03  12,3 дБ .
Приклад 3. Визначити необхідне відношення сигнал/шум q2 на вході демодулятора автокореляційного приймача нефлуктуючих сигналів з відносною фазовою маніпуляцією, якщо задана імовірність помилки на один символ
ре = 10-4.
Розв’язання. Необхідне відношення сигнал/шум знайдемо з формули
1
1
ре  ехр (q 2 ) ; q 2  ln
 ln( 5  10 3 )  8,51  9,3 дБ .
2
2 рe
Приклад 4. Цифрова радіосистема призначена
для передавання по-
відомлень дискретного джерела з ємністю алфавіту М . В системі використовуються рівномірне двійкове кодування, частотна маніпуляція і некогерентний
метод приймання сигналів. Амплітудні флуктуації сигналу відсутні. Задана
імовірність помилкового приймання повідомлень рпом. Зіставити необхідні
відношення сигнал/шум при передаванні повідомлень натуральним двійковим та
завадостійким блоковим кодом, який виправляє окремі помилки. М = 100, рпом =
10-6.
Розв’язання. При кодуванні натуральним двійковим кодом кодова
комбінація складається тільки з інформаційних символів і її довжина
n  k  log 2 M  7 . Допустиму імовірність помилкового приймання одного
символу pе знаходимо з формули
pпом  1  1  рe n  npe , pe  pпом / n  10 6 / 7  1,47 10 7.
Необхідне відношення сигнал/шум знаходимо з формули
pe  1 2exp  q 2 / 2  , q12  2ln 1 2 pe   30,07  14,8 дБ .
При кодуванні завадостійким кодом кількість контрольних символів r,
яка визначається з формули
2 r 1  k  r , дорівнює 4. Довжина кодової
комбінації n  7  4  11. Допустиму імовірність помилки на один символ
визначаємо з формули
рпом
106
pe 

 9,5  105 .
n(n  1)
11  10
Необхідне відношення сигнал/шум
q22  2ln 1 2  9,5  105   17,13  12,3 дБ .
Отже, виграш у відношенні сигнал/шум і потужності радіопередавача
складає
q12  q 22  14,8  12,3  2,5 дБ .
Приклад 5. Визначити необхідний коефіцієнт збільшення потужності
радіопередавача при передаванні сигналів каналом з повільними релеєвськими
завмираннями в порівнянні з каналом з постійними параметрами, якщо використовується некогерентне приймання частотно-модульованих сигналів при середньому значенні імовірності помилки на один символ ре = 10-4.
Розв’язання. Відповідно до розв’язку прикладу 2 при некогерентному
прийманні нефлуктуючих ЧМ - сигналів якщо ре = 10-4 відношення сигнал/шум
q 2  17,03  12,3 дБ.
Для каналу з релеєвськими завмираннями знайдемо q 2 з формули
ре 
1
2  q2
, q2 
1  2 рe
1
1

  4  10 4  40 дБ .
рe
рe 10
Потужність передавача необхідно збільшити в
q 2 / q 2  10000 / 17,03  587 разів ,
або на 27,7 дБ.
Приклад 6. В цифровій радіосистемі передавання інформації каналом з
релеєвськими завмираннями застосовується некогерентне приймання частотноманіпульованих сигналів. Визначити енергетичний виграш при рознесеному
прийманні й автовиборі вітки з найбільш потужним сигналом порівняно з одиночним прийманням, якщо задана середня імовірність помилки на один символ
ре  10 4 і кількість віток рознесення n =2.
Розв’язання. Середня імовірність помилки при n-кратному рознесенні
визначається формулою
n
рen  n!/( 2 (i  q 2 / 2)) .
i 1
n = 1, рe1 
n = 2, рe 2 
1
2  q2
, q2 
2!
2(1  q / 2)(2  q / 2)
2
2
1
 104  40 дБ ;
pe1

(q 2 / 2) 2  3(q 2 / 2)  2 
1
2  3(q / 2)  (q / 2)
2
2
2
;
1
 10 4 ;
p e2
(q2 / 2)2  3(q2 / 2)  10000  0, q2 / 2  100, q2  200  23 дБ .
Отже, при використанні двократного рознесення можна зменшити
потужність радіопередавача в 50 разів, або на 17 дБ.
Приклад 7. У скільки разів необхідно збільшити середню потужність
передавача, щоб при ідеальному прийманні ФМ сигналів імовірність помилки
зменшилась з 10 2 до 10 5 .
Розв’язання. При ідеальному прийманні (когерентне приймання при ідеальному узгодженні характеристик каналу зв’язку з параметрами сигналу)
імовірність помилки визначається формулою
pe  0,5 1  Ф


2
2qопт
  .
Звідси
Ф
Ф




2
2qопт
 1  2 pe ,
2
2qопт
 1  2  102  0,98;
Ф
2q12опт  2,35;


2q22 опт  1  2  105  0,99998;
2q22 опт  3,90.
Оскільки потужність передавача Pc прямо пропорційна відношенню
сигнал/шум на вході приймача, для зменшення імовірності помилки до 10 5
потужність передавача необхідно збільшити у
Pc 2 2q 22 опт

 2,75 рази.
Pc1 2q12опт
Приклад 8. Визначити, яке співвідношення сигнал/шум в каналі у випадку
використання некогерентного приймання ЧМ, якщо передавання символів 0 та 1
рівномірне, швидкість модуляції B дорівнює 1000 Бод, а пропускна здатність
каналу C  850 біт / с.
Розв’язання. Пропускна здатність двійкового симетричного каналу
визначається формулою
С  В1  ре log pe  1  pe log 1  pe .
Відношення сигнал/шум q 2 для випадку некогерентного приймання
ЧМ можна визначити із формули


pe  0,5 exp  q 2 2 , q 2  2 ln 1 2 pe .
Спершу потрібно визначити p e з формули для пропускної здатності
pe log pe  1  pe log 1  pe   C B   1.
 pe log pe  1  pe  log 1  pe   0,15.
Ліва частина рівняння по формі співпадає з формулою ентропії двійкових повідомлень H ( X ) , тому значення p e може бути запозичене з таблиці в кінці збірника
pe  0,0216 .
q 2  2 ln 1 2  0,0216   6,28.
Остаточно
Задачі для самостійного розв’язання
Задача 1. Обчислити імовірність помилок при оптимальному когерентному
прийманні бінарних протилежних і бінарних ортогональних сигналів, якщо потужність сигналів на вході когерентного демодулятора Рс, спектральна густина
завади No, швидкість передавання R Бод.
Вихідні
Номер варіанта
дані
0
1
2
3
4
5
6
7
8
9
10-3
10-4
10-5
10-6
10-7
10-3
10-4
10-5
10-6
10-7
No, Вт/Гц
10-6
10-7
10-8
10-9
10-10
10-6
10-7
10-8
10-9
10-10
R, Бод
100
200
300
400
500
100
200
300
400
500
Рс
Задача 2. Обчислити імовірність помилок при оптимальному некогерентному прийманні бінарних ортогональних сигналів з випадковою початковою
фазою, якщо потужність сигналів на вході некогерентного демодулятора Рс,
спектральна густина завади No, швидкість передавання R Бод.
Вихід-
Номер варіанта
ні дані
Рс, Вт
No,
0
1
2
3
4
5
6
7
8
9
10-3
10-4
10-5
10-6
10-7
10-3
10-4
10-5
10-6
10-7
Вт/Гц
10-7
10-8
10-9
10-10
10-11
10-7
10-8
10-9
10-10
10-11
R, Бод
100
200
300
400
500
100
200
300
400
500
Задача 3. Обчислити імовірність помилок при оптимальному некогерентному прийманні бінарних ортогональних сигналів з випадковою початковою
фазою і флуктуючою амплітудою, якщо середня потужність сигналів на вході
некогерентного демодулятора Рс, спектральна густина завади No, швидкість
передавання R.
Вихідні дані
Номер варіанта
2
3
4
5
6
7
8
9
10-3 10-4
10-5
10-6
10-7
10-3
10-4
10-5
10-6
10-7
Вт/Гц
10-7 10-8
10-9
10-10
10-11
10-7
10-8
10-9
10-10
10-11
R, Бод
100
300
400
500
100
200
300
400
500
Рс, Вт
0
1
No,
200
Задача 4. Визначити, яке співвідношення q2 сигнал/шум в каналі у випадку
використання некогерентного вузько смугового приймання АМ, якщо передавання символів 0 та 1 рівноімовірне, швидкість модуляції дорівнює В, Бод, а
пропускна здатність каналу С, біт/с.
Вихідні
Номер варіанта
дані
В, Бод
С, біт/с
0
1
2
3
4
5
6
7
8
9
1000 1100 1200 1300 1400 1500 1600 1700 1800 1900
900
1000 1100 1200 1300 1400 1500 1600 1700 1800
Задача 5. У скільки разів необхідно збільшити середню потужність передавача, щоб при ідеальному прийманні ФМ сигналів імовірність помилки зменшилась від ре1 до ре2 ?
Вихід-
Номер варіанта
ні дані
0
1
2
3
4
5
6
7
8
9
ре1
10-4
10-4
10-5
10-5
10-6
10-6
10-2
10-2
10-3
10-3
ре2
10-5
10-6
10-6
10-7
10-7
10-8
10-3
10-4
10-4
10-5
Задача 6. У скільки разів необхідно збільшити середню потужність передавача, щоб при ідеальному прийманні ЧМ сигналів імовірність помилки знизилась від ре1 до ре2 ?
Вихідн
і дані
Номер варіанта
0
1
2
3
4
5
6
7
8
9
ре1
10-4
10-4
10-5
10-5
10-6
10-6
10-2
10-2
10-3
10-3
ре2
10-5
10-6
10-6
10-7
10-7
10-8
10-3
10-4
10-4
10-5
Задача 7. Обчислити необхідне відношення сигнал/шум на вході демодулятора приймача в каналі з релеївськими завмираннями при використанні ЧМ і
вузькосмуговому
некогерентному прийманні, якщо задана імовірність
помилки.
Вихід-
Номер варіанта
ні дані
0
ре
10-3
1
2
3
4
5
6
7
8
210-3 310-3 410-3 510-3 610-3 710-3 810-3 910-3
9
10-2
ВИСНОВКИ: В результаті отриманих рішень чисельних прикладів і задач підтверджені теоретичні положення про те, що найвища (потенційна)
завадостійкість досягається при оптимальному когерентному прийманні сигналів на фоні нормального "білого" шуму.
При некогерентному прийомі сигналів з випадковою початковою фазою
і флуктуюючою амплітудою завадостійкість знижується, особливо за наявності релеєвскіх завмирань
ЛЕКЦІЯ 9
ОПТИМАЛЬНИЙ І КВАЗИОПТИМАЛЬНІЙ ПРИЙОМ НЕПЕРЕРВНИХ
СИГНАЛІВ І ЙОГО ЗАВАДОСТІЙКІСТЬ
Мета – вивчення особливостей приймання неперервних сигналів з аналоговими
видами модуляції, основні теорії нелінійної фільтрації.
В лекції розглядаються наступні питання:
1. Особливості приймання неперервних сигналів з аналоговою модуляцією.
2. Завадостійкість прийому сигналів з амплітудною модуляцією.
3. Завадостійкість прийому сигналів з фазовою модуляцією.
4. Завадостійкість прийому сигналів з частотною модуляцією.
1.Особливості приймання неперервних сигналів з аналоговою модуляцією
Перейдемо до розгляду особливостей оптимального прийому при передачі
неперервних повідомлень. У цьому випадку передане повідомлення х(t) може
мати дуже велике (практично нескінченне) число можливих реалізацій, кожна з
яких являє собою неперервну функцію часу. Тому в геометричній інтерпретації
повідомленням і сигналам відповідають не окремі точки (або вектори з фіксованою довжиною) у багатомірних просторах(як це було при передачі дискретних
повідомлень), а континуум ліній повідомлень і сигналів, описуваних кінцями
векторів
и . Дослідження показують, що в цій ситуації оптимальний прийом
пов'язаний з формуванням на прийомній стороні такого сигналу s(t), який би
забезпечував максимум апостеріорної щільності ймовірності
.
Стосовно до каналу з гаусівським білим шумом і рівноімовірними повідомленнями зазначена умова зводиться до мінімізації величини
T
 d (t )   [ y(t )  s(t )] 2 dt.
2
(1)
0
Щоб сформувати сигнал S(t) на прийомній стороні потрібно використовувати
прийняте повідомлення
, що являє собою результат обробки вхідної реалізації
y(t) приймачем. Повідомлення
х(t). Формування сигналу
ням
називають оцінкою переданого повідомлення
являє собою модуляцію несучого сигналу коливан-
за тим же законом й з тими ж параметрами, що й на передавальній
стороні.
Сформований у приймачі сигнал
використовується при обробці вхідної
реалізації y(t) і наступному формуванні оцінки повідомлення
чергу, необхідно для створення сигналу
, що, у свою
. Неважко зрозуміти, що зазначена
процедура може бути виконана тільки в пристрої слідкуючого типу, з використанням зворотного зв'язка по формованій оцінці повідомлення
.
У геометричній інтерпретації мінімізація вираження означає, що оптимальний приймач завжди відносить вхідну поточну реалізацію до найближчої лінії
сигналів і відповідно до цього формує на виході оцінку повідомлення
вплив шуму оцінка
. Через
відрізняється від переданого повідомлення х(t). Це
відмінність звичайно характеризують величиною середньоквадратичної помилки
Оптимальний прийом забезпечує мінімальне значення цієї помилки в порівнянні з будь-яким іншим способом прийому.
Теорія оптимального прийому неперервних повідомлень, часто називана також теорією оптимальної демодуляції аналогових видів модуляції, або теорією
нелінійної фільтрації, представляє важливий розділ загальної теорії зв'язку,
основи якої були закладені в роботах О. М. Колмогорова, В. А. Котельникова, Н.
Вінера, К. Шеннона й ряду інших вітчизняних і закордонних учених.
Завданням прийомного пристрою є добування переданого повідомлення х(t)
із вхідного коливання y(t). Однак через завади й спотворення ця процедура не
може бути виконана точно, і відновити повідомлення на виході приймача можна
тільки приблизно. Таке наближене повідомлення називають оцінкою й позначають
.
Критерієм близькості
і х(t) у теорії й техніці зв'язку прийнята СКП,
відповідно до якої
 2  k ïõ2  [ xˆ (t )  x(t )] 2 ,
(2)
де дужки <.> означають операцію усереднення реалізації за часом.
Оптимальний приймач безперервних повідомлень забезпечує найменшу
можливу в заданих умовах величину СКП. Визначимо цю помилку.
Ґрунтуючись на теорії ортогональних розкладань передачу будь-якого неперервного повідомлення можна замінити передачею сукупності числових коефіцієнтів (параметрів). Нехай безперервне повідомлення х(t) представлено знизу
n
x(t )   a k  k (t ).
(3)
k 1
При відомій системі базисних функцій передача повідомлень x(t) еквівалентна передачі п значень коефіцієнтів
a k . Отже, переданий сигнал можна розгля-
дати як функцію часу й коефіцієнтів
a k , тобто
s(t )  s[ x(t ), t ]  s(a1a2 ,..., ak ,..., an , t ).
Вплив перешкод приведе до того, що кожний коефіцієнт
(4)
a k , буде прийнятий
з деякою похибкою. У результаті оцінка повідомлення прийме вид
n
xˆ (t )   (a k  a k ) k (t )  x(t )   (t ),
k 1
(5)
де коливання  (t ) потрібно розглядати як заваду на виході приймача.
Якщо єдиною причиною появи цієї завади є білий гаусівський шум на вході
приймача, то неважко переконатися в тім, що перешкода  (t ) має нормальний
розподіл. В.А.Котельников показав, що в режимі 170ад граничного оптимального прийому спектральна щільність такої перешкоди визначається вираженням
2
2
T
 s ( x, t ) 
1  s ( x, t ) 
N 0 ( f )  N 0 /  
dt  N 0 /  

 .
T 0  x(t ) 
 x(t ) 
(6)
Середній квадрат помилки при оптимальному прийомі неперервних повідомлень можна знайти по формулі
  k   (t )  k
2
2
пx
2
Fв
2
пx
 N  ( f )df .
(7)
0
0
Для обраного (або заданого) виду модульованих сигналів завадостійкість
оптимального прийому буде найбільш високою в порівнянні з будь-яким можливим реальним способом прийому цих же сигналів. Тому таку завадостійкість
часто називають потенційною (гранично можливою для даного виду сигналів).
При аналізі потенційної завадостійкості корисно розрізняти прямі види модуляції, у яких передане повідомлення x(t) безпосередньо входить у вираження
для сигналу s(t )  s[ x(t ), t ], й інтегральні, у яких сигнал — функція інтеграла від

переданого повідомлення, тобто s (t )  s[ x(t )dt , t ] .
Розглянемо особливості розрахунку потенційної завадостійкості для деяких
випадків.
2. Завадостійкість прийому сигналів з амплітудною модуляцією
Нехай для передачі неперервних повідомлень використовується АМ сигнал.
У цьому випадку
T
K
2
sÀÌ
S 02 M a2
  S M cos ( 0 t  0 )dt 
,
2
0
1
T
2
0
2
a
2
2
N 0 ( f )  N 0 / K sАМ
 2 N 0 / S 02 M a2 ,
2
2
 АМ
 2k пx
N 0 Fв /S 02 M a2 .
(8)
(9)
(10)
В (8) враховано, що соs2а = 0,5(1+соs2а) і інтеграл розпадається на дві складові, одна із яких (із частотою 2w0) близька до нуля й відкинута.
З (9) витікає, що при АМ сигналі спектральна щільність завади на виході
оптимального приймача постійна. Ця особливість характерна не тільки для
АМ, але й всіх інших сигналів із прямими видами модуляції.
Взявши до уваги, що середні потужності сигналу й шуму на вході приймача
Pc  S 02 / 2; Pш  2 N 0 Fв  2N 0 f АМ ,
де f АМ  2 Fв - ширина спектра АМ сигналу, що визначає смугу пропускання
приймача, маємо
Відповідно до (11) потенційна завадостійкість АМ сигналів в основному визначається відношенням сигналу до шуму на вході приймача. Для одержання
малих значень помилки це відношення повинне бути досить великим.
3.Завадостійкість прийому сигналів з фазовою модуляцією
Завадостійкість сигналів з кутовою модуляцією. Нехай для передачі неперервних повідомлень використовуються сигнали з кутовою модуляцією. Спочатку
розглянемо випадок фазової модуляції.
З(13) видно, що при ФМ сигналі, як і при АМ, спектральна щільність завади
на виході постійна, оскільки ФМ належить до сигналів із прямою модуляцією.
2
 K sФМ

T
S 02 m2
1 2 2
2
S


cos
[

t



x
(
t
)]
dt

;
0
m
0
m
T 0
2
N 0  2 N 0 / S 02  m2 .
2
 ФМ

де
2 N 0 k п2x Fв
k п2x Fв


 m2 S 02
 m2 f c
(12)
(13)
P
  ш
 Pс

 ,
вх
(14)
й ---- середні потужності шуму й сигналу на вході приймача; ---
- смуга частот, займана спектром ФМ сигналу.
4.Завадостійкість прийому сигналів з частотною модуляцією
Проведемо тепер розгляд для ЧМ сигналу. Він відноситься до інтегрального
виду модуляції.
При ЧМ сигналі спектральна щільність завади на виході має квадратичну
залежність від частоти. Така залежність характерна для всіх інтегральних видів
модуляції.
2
 K sЧМ
 S 02  m2 / 2 2 ,
(15)
де  - поточна частота, що приймає значення в інтервалі [0,  в ].
Спектральна щільність завади на виході оптимального приймача ЧМ сигналів дорівнює
2N 0 2 2N 0 F 2
N 0 ( f )  2 2  2 2 .
S 0  m S 0 f m
(16)
Ця формула показує, що при ЧМ сигналі спектральна щільність завадина
виході має квадратичну залежність від частоти. Така залежність характерна для
всіх інтегральних видів модуляції.
Середній квадрат помилки при прийманні ЧМ сигналів можна записати так:
де ЧМ  f m / Fв - індекс частотної модуляції.
Проаналізуємо отримані результати. З (14) і (17) видно, що при ФМ і ЧМ
завадостійкість прийому можна підвищити тільки за рахунок збільшення індексу
модуляції  (не збільшуючи при цьому середню потужність сигналу Рс).
Однак збільшення  приводить до розширення спектра ФМ і ЧМ сигналів і
відповідно до необхідності використовувати більш широку смугу частот. Це
зменшує відношення сигналу до шуму на вході приймача qc  ( Pс / Pш ) вх . При
деякому значенні індексу    кр величина qс знизиться до граничної величини
q пор , при якій умови надграничного прийому порушуються й починає різко
зростати ймовірність аномальних помилок
і (17) користуватися вже не можна.
. У цьому випадку формулами (14)
Висновки
В лекції розглянута постановка задачі передавання неперервної інформації
неперервними сигналами з аналоговими видами модуляції. Виконаний аналіз
завадостійкості системи з амплітудною, фазовою та частотною модуляцією.
Отримані розрахункові формулі для обчислення вірогідності приймання.
ЛЕКЦІЯ 10
ЦИФРОВІ МЕТОДИ ПЕРЕДАЧІ НЕЗПЕРЕРВНИХ ПОВІДОМЛЕНЬ
Мета лекції – вивчення цифрових методів передавання неперервної інформації. Всі сучасні системи радіозв’язку і телебачення використовують цифрові
методи, тому розглядаються різні методи цифрових перетворень, їх завадостійкість і обчислюються помилки перетворень.
В лекції розглядаються наступні питання:
1. Імпульсно – кодова модуляція.
2. Завадостійкість систем зв’язку з імпульсно – кодовою модуляцією.
3. Диференціальна імпульсно – кодова модуляція. Дельта модуляція.
1.
Імпульсно – кодова модуляція
Як відзначалася раніше, неперервні повідомлення можна передавати по
дискретних системах зв'язку. Для цього них перетворять у цифрову форму за
допомогою операції дискретизації за часом, квантування за рівнем і кодування.
Найпоширенішим способом перетворення неперервних повідомлень у
цифрову форму є імпульсно-кодова модуляція (ІКМ), при якій із переданого
повідомлення
беруться відліки з інтервалом Т Д , таким, щоб за відліками
можна було з необхідною точністю відновити повідомлення. Відліки квантуються за рівнем і передаються номери рівнів квантування, як правило, тим або
іншим двійковим кодом. Значність коду k і кількість рівнів квантування Lкв в
цьому випадку зв'язані співвідношенням Lкв  2 , причому звичайно має місце
k
знак рівності. У результаті неперервне повідомлення перетвориться в потік
двійкових символів, що надходить на вхід дискретного каналу зв'язку. Операції,
пов'язані з перетворенням
неперервного повідомлення, що надходить від
джерела Д, здійснюється в аналогово-цифровому перетворювачі (АЦП) (мал.1).
Двійкові символи з виходу дискретного каналу зв'язки подаються на цифроаналоговий перетворювач (ЦАП), що перетворює кодові комбінації в відліки, за
якими і виконуються відновлення переданого неперервного повідомлення,
призначеного для одержання одержувачем (О).
Для передачі двійкових символів можуть використовуватися різні види маніпуляції: амплітудна, фазова, частотна. Відповідно до цього вводиться класифікація систем: ІКМ-АМ, ІКМ-ФМ, ІКМ-ЧМ.
Помилки передачі неперервних повідомлень цифровими методами пов'язані
з дискретизацією неперервних повідомлень за часом, квантуванням відліків за
рівнем і невірною передачею окремих символів цифрового потоку по дискретному каналі зв'язку. Далі вважається, що причиною помилок передачі цифрових
символів є шум, що діє в каналі. Тому відповідна помилка називається шумовою. Можна думати, що при ІКМ відносний середній квадрат помилки
 2³êì   2 Ä   2 Ê   2 Ø .
(1)
2
Помилка дискретизації за часом  Д визначається властивостями переданого
повідомлення й способом відновлення повідомлення по відліками.
Помилку квантування при рівномірному квантуванні за рівнем можна знайти
як
 2 КВ  DКВ / PX  (x 2 / 12) / РХ  К П / 3  2 2к
Тут прийнято, що
(2)
 1  x(t )  1, x  2 / LKB , LKB  2 k .
Малюнок 1-Структурна схема системи з ІКМ
Шумова помилка буде оцінена далі.
Цифрові методи передачі володіють поруч технічних і експлуатаційних переваг перед аналоговими. З основних можна вказати наступні:
 малий вплив апаратурних похибок на точність передачі повідомлень.
Фактично вони позначаються лише при аналого-цифровому й цифроаналогово-
му перетвореннях. Це дозволяє забезпечити в цифрових системах точність
передачі повідомлень, недосяжну в аналогових;

висока завадостійкість. Повідомлення буде спотворенно лише при
неправильному прийманні символів цифрової послідовності, тобто при досить
великій потужності завади;
 можливість регенерації сигналів (відновлення їхньої форми) при ретрансляції. Це дозволяє усунути нагромадження помилок, що особливо важливо для
радіорелейних ліній;
 високі техніко-економічні показники - широке використання елементів цифрової техніки, низькі вимоги до лінійності загального тракту й т.п.
До недоліків цифрових систем відноситься їхня складність (у порівнянні з
аналоговими), а також широка смуга частот сигналу. Наприклад, якщо при АІМ
для передачі відліку потрібен один імпульс, то при ІКМ k імпульсів, тобто смуга
розширюється в k раз.
Смуга частот сигналу при ІКМ визначається швидкістю цифрового потоку на
виході АЦП.
RЦП  k / T Д ,
(3)
2
2
при цьому k впливає на  КВ , а Т Д - на  Д . Завдання оптимізації цифрово-
го перетворення полягає в тім, щоб при заданому значенні сумарної помилки
 2 КВ +  2 Д вибрати такі значення k і Т Д , при яких R ЦП мінімально. Якщо взяти
2
2
до уваги (2),то неважко бачити, що звичайно  КВ   Д .
2.Завадостійкисть систем зв’язку з імпульсно-кодовою модуляцією
Розглянемо механізм впливу помилок прийому двійкових символів на точність відновлення повідомлення при рівномірному квантуванні (мал.2).
На прийомній стороні кодові комбінації перетворюються в амплітуду імпульсу
k
i 1
u ÂÈÕ   k 2 u   k 1 2 u  …   1 2 u  u   i 2 ,
k 1
k 2
0
t 1
де
u - крок квантування,  i - значення i-го розряду кодової комбінації
(  i  {0,1} ).
Якщо символи через дію шуму приймаються невірно, то амплітуда імпульсу
одержує шумову складову
k
u Ш  u   i 2 i 1 ,
(4)
t 1
де
i -
p(0) p(1 | 0) ,
випадкова величина, що приймає значення
 i =1
з імовірністю
 i =-1 з імовірністю p(1) p(0 | 1) ,  i = 0 з імовірністю 1-(1- p íîì
), p (0)
і p (1) - імовірності появи символів 0 і 1 у кодових групах, p(1 | 0) і p(0 | 1) імовірності помилок при передачі символів 0 і 1 відповідно,
pïîì  p(0) p(1 | 0)  p(1) p(0 | 1).
Малюнок 2 - Діаграма утворення помилки приймання кодової комбінації при ІКМ
Можна вважати, що p (0)  p(1)  0.5 . У приймачі дискретних повідомлень систем ІКМ, як правило, імовірності p (1 | 0) й p (0 | 1) однакові.
Тому
Математичне очікування й дисперсія дискретної випадкової величини
залежить від i :
m i  1 p(1 | 0) p(0)  (1) p(0 | 1) p(1)  0,
D i  (1) 2 p(1 | 0 p(0)  (1) 2 p(0 | 1) p(1)  p ïîì
.
 i не
Середнє значення шумової складової амплітуди імпульсів на виході ЦАП
дорівнює нулю, а дисперсія
k
де U m  u 2 - максимальне значення амплітуди імпульсу на виході ЦАП.
При виводі (5) вважається, що помилки прийому різних символів незалежні.
Слід зазначити, що на виході ЦАП помилки, викликані дією шуму, проявляються як випадкова послідовність імпульсів, імовірність появи яких мала, але
амплітуда, як правило, більша. Це, зокрема, видно й з (5).
Таким чином, шум у системах з ІКМ призводить до утворення аномальних
помилок. Причиною малих помилок передачі повідомлень є інтерполяція й
квантування.
Кількісно оцінити вплив аномальних помилок на якість передачі повідомлень можна по середньому інтервалу часу T між помилками. Якщо задатися
деяким значенням T , то припустима ймовірність помилки прийому символу
pïîì  TØ /Tk.
(6)
Іноді оцінюють середній квадрат помилки приймання повідомлення. При
цьому виходять із наступних міркувань. Спектральну щільність потужності
випадкового імпульсного процесу, що виникає на виході ЦАП, у межах смуги
частот переданого повідомлення можна вважати рівномірною
.
(7)
Корисний сигнал на виході
S âèõ (t )  U m m x(t ) / 2T Ä
(8)
З (5), (7), (8) випливає, що при Fmax T Д  0.5 середній квадрат помилки, викликаної дією шуму,
 2 Ø  4 pïîì K n / 3.
(9)
Питомі витрати потужності при ІКМ знаходимо з наступних міркувань. Сумарна помилка (1) повинна бути перерозподілена між складовими. У першому
2
2
наближенні можна думати  ø   ²ÊÌ / 3. На підставі (9) обчислюємо p ïîì й по
заданому виді маніпуляції й способу прийому визначаємо необхідне значення
PC TC / N 0 , де PC - потужність сигналу, TC - тривалість необхідного двійкового
символу. Далі, знаючи співвідношення між TC і T Д , а також між T Д і Fmax , можна
знайти  p . Наприклад, якщо TC  TД / k ,TД  1/ 2Fmax, то
 P  PC / N 0 Fmax  2kPC TC / N 0 .
(10)
Питома витрата смуги перебуває в такий спосіб. Наприклад, для системи ІКМФМ при TC  TД / k ,TД  1/ 2Fmax , FC  2 / TC
 f  4k .
(11)
Як показують оцінки, системи з ІКМ, зокрема ІКМ-ФМ, мають більш високу
у порівнянні з аналоговими методами передачі завадостійкістю.
Завадостійкість ІКМ можна підвищити, якщо використовувати завадостійкі
коди. За рахунок цього можна зменшити питомі витрати потужності в 2-4 рази (на
3 .. 6 дб). Питомі витрати смуги при цьому зростуть приблизно в 2 рази.
Існує ще одна можливість підвищення завадостійкості ІКМ. У реальних повідомленнях даний відлік не може значно відрізнятися від сусідніх. Якщо ж така
відмінність є, то це говорить про те, що дана кодова комбінація прийнята з помилкою і її треба «відбракувати». Значення відліку при цьому приймається рівним
інтерпольованому значенню, що обчислюється по сусіднім відлікам. Тим самим
усуваються великі аномальні помилки. Даний спосіб дозволяє зменшити витрати
потужності на (1…3) дб при незмінних питомих витратах смуги
3.Диференціальна імпульсно-кодова модуляція. Дельта модуляція
Сусідні відліки реальних повідомлень, як правило, сильно корельовані. Це дозволяє, виходячи зі значень попередніх відліків, прогнозувати значення даного
відліку. При диференціальній імпульсно-кодовій модуляції (ДІКМ, мал.2 ) квантуються не відліки, а різниці між прогнозованними
x(kTД ) значеннями відліку.
xпр (kTД )
й істинними
Малюнок 1- Структурна схема з ДІКМ
У ДІКМ можна зменшити значність кодових комбінацій у порівнянні з ІКМ і
тим самим скоротити швидкість цифрового потоку
RЦП , зменшити смугу частот
каналу й підвищити завадостійкість. На прийомній стороні (мал. 1) прийняте
значення відліку різниці додається до попереднього прогнозованого відліку й у
результаті формується оцінка відліку.
Часто в якості xпр (kT Д ) беруть попереднє значення відліку
xпр (kTД )  x((k  1)TД ) ,
тому
r (kTД )  x(kT Д )  x((k  1)TД ) .
Відомо кілька варіантів технічної реалізації ДІКМ. Основна відмінність між
ними складається в операціях формування різницевого сигналу r (kT Д ) . В одних
системах r (kT Д ) формується в аналоговій формі, а потім квантується й кодується,
в інших повідомлення
x(t )
перетворюється в цифрову форму й всі операції
виконуються в цифровому вигляді.
Зі сказаного видно, що при різницевих методах кодер і декодер складніші. Додаткові труднощі виникають при побудові багатоканальних систем, при ІКМ кодер
і декодер можуть бути спільними для всіх каналів, а при ДІКМ вони, як правило,
індивідуальні.
Специфічна помилка систем ДІКМ пов'язана з «перевантаженням за нахилом».
Вона виникає при швидкій зміні рівня повідомлення, коли r (kTД ) формується
більша, ніж можна передати за допомогою кодової комбінації.
Окремим різновидом системи ДІКМ є система з використанням дельтамодуляція (ДМ), при якій кодова комбінація складається з одного розряду, що
передає знак різниці між поточним і попереднім значенням відліків. Принцип
передачі повідомлення при ДМ показаний на мал.2а.
Відліки x(kTД ) парівняються із квантованими відліками
~x ((k  1)T ) , отриКВ
Д
маними в результаті підсумовування в накопичувачі (інтеграторі) всіх попередніх
квантованих сигналів помилок.
а)
б)
Малюнок 2- Структурна схема системи з дельта-функцією (а) і діаграма формування сигналу на її виході (б)
Якщо
x(kTД )  xКВ ((k  1)TД ,
то кавнтувач формує +1 (знак різниці позитив-
ний), у противному випадку одержуємо -1(знак різниці негативний). На виході
накопичувача квантований сигнал
~
xКВ ((k  1)TД ) має вигляд східчастої функції
(мал. 2б), причому кожний імпульс +1 збільшує, а -1 зменшує східчасту функцію
на один крок квантування. У цьому випадку роль передбачувача грає накопичувач
(інтегратор).
На приймальній стороні сигнал ДМ декодує накопичувач, аналогічний тому,
що стоїть на передавальній. На його виході (при відсутності збоїв у дискретному
каналі) утвориться східчаста напруга
повідомлення
~
x КВ (t ) . Після фільтрації виходить оцінка
.
Шуми в дискретному каналі зв'язку не приводять до утворення аномальних
помилок, але нагромадження помилок має місце.
Швидкість цифрового потоку RЦП в розглянутому варіанті ДМ, як правило,
виходить більше, ніж при ІКМ. Одним зі способів покращення показників ДМ є
використання в якасті накопичувача дельта модулятора (мал. 2) не одиночного, а
подвійного інтегратора. Можна показати, що в цьому випадку формована копія
сигналу складається з відрізків, нахил яких відповідає імпульсному сигналу на
вході інтегратора. Перехід до подвійного інтегратора зменшує потужність шуму
квантування (при тім же
RЦП ) на 6 .. 10 дб.
При дельта-модуляції крок квантування, з одного боку, повинен бути настільки малий, щоб шум квантування не перевищив припустимого значення, а з іншого
боку - досить великий, щоб не виникли шуми перевантаження. Якщо крок квантування залишається постійним, необхідно збільшувати частоту дискретизації.
Висновки
В лекції розглянуті переваги застосування цифрових методів передачі неперервних повідомлень в системах радіозв’язку
і телебачення. Надана методика
розрахунку завадостійкості систем з ІКМ. Розглянуті модифікації системи з ІКМ –
системи з диференціальною імпульсно – кодовою модуляцією (ДІКМ) і дельта –
модуляцію (ДМ). Надані спрощені структурні схеми цих систем.
Тестові запитання
1. Яка аналітична функція описує часову структуру неперервного сигналу
з амплітудною модуляцією?
1)
2)
3)
2. Яка аналітична функція описує часову структуру неперервного сигналу
з балансною амплітудною модуляцією?
1)
2)
)
3)
3. Яка аналітичні функція описує часову структуру неперервного сигналу
з фазовою модуляцією?
1)
2)
3)
4. Яка аналітична функція описує часову структуру неперервного сигналу
з частотною модуляцією?
1)
2)
3)
5. Середній квадрат відносної похибки при оптимальному прийманні амплітудно-модульованих коливань визначається формулою
1  Pш  kпх2
.

2
2  Рс вх mАМ
2  
Яке необхідне відношення сигнал/шум
Рс
на вході приймача для заРш
безпечення відносної помилки   10% при k пх  2 і m АМ  1 ?
1) 10
2) 20
3) 100
4) 200
6. Середній квадрат відносної похибки при оптимальному прийманні фазомодульованих коливань визначається формулою
 
2
kпх2
2
2 1  ФМ  ФМ
Яке необхідне відношення сигнал/шум
 Pш 
 
 Pc вх
Рс
на вході приймача для заРш
безпечення відносної помилки   10% при k пх  2 і ФМ  1 ?
1) 10
2) 100
3) 1000
4) 10000
7. Середній квадрат відносної похибки при оптимальному прийманні частотно-модульованих коливань визначається формулою
 Pш 
kпх2
  2
 
6mЧМ 1  mЧМ   Pc вх
2
Яке необхідне відношення сигнал/шум
Рс
на вході приймача для заРш
безпечення відносної помилки   10% при k пх  2 і mЧМ  1 ?
1) 3,3
2) 33
3) 330
4) 3300
8. Яка мінімальна величина середньоквадратичної похибки може бути досягнута при оптимальному прийманні амплітудно-модульованих коливань,
якщо відношення сигнал/шум на вході дорівнює 20 дБ, пік-фактор повідомлення k пх  3 , а коефіцієнт глибини модуляції m АМ  1 . Формула, яка повязує
ці величини
1  Pш  kпх2
.

2
2  Рс вх mАМ
2  
1) 20%
2) 10%
3) 5%
4) 2%
9. Яка мінімальна величина середньоквадратичної похибки може бути досягнута при оптимальному прийманні фазомодульованих коливань, якщо
відношення сигнал/шум на вході дорівнює 20 дБ, пік-фактор повідомлення
k пх  3 , індекс фазової модуляції ФМ  1 . Формула, яка повязує ці величини
 
2
1) 0,6%
2) 1,2%
3) 6%
4) 12%
kпх2
2
2 1  ФМ  ФМ
 Pш

 Рс

.

10. Яка мінімальна величина середньоквадратичної похибки може бути
досягнута при оптимальному прийманні частотно-модульованих коливань,
якщо відношення сигнал/шум на вході дорівнює 20 дБ, пік-фактор повідомлення k пх  3 , індекс частотної модуляції mЧМ  1 . Формула, яка повязує ці
величини
 Pш 
kпх2
  2
 
6mЧМ 1  mЧМ   Рс 
2
1) 0,87%
2) 8,7%
3) 1,74%
4) 17,4%
11. Яка з формул визначає необхідну частоту дискретизації неперервного
повідомлення, спектр якого визначається інтервалом 0 … FB ?
1) FД=2FВ
2) FД=FВ
3) FД  2FВ
12. Чому дорівнює потужність шуму квантування при рівномірному квантуванні неперервного повідомлення x(t ) з шагом x ?
2
2
1)  кв   x 8
2
2
2)  кв   x 12
2
2
3)  кв   x 16
13. Яке співвідношення між середньою відносною похибкою цифровізації
 ц2 і середньою відносною шумовою похибкою необхідно забезпечувати при
проектуванні цифрових систем передачі неперервних повідомлень?
1)  ц2  0,1 ш2
2)  ц2   ш2
2
2
3)  ц  10 ш
14. При передаванні неперервної інформації цифровими методами
відносна
середньоквадратична
похибка
відтворення
інформації

і
імовірність помилки на 1 біт повязані співвідношенням pe  2,5  102  2 . Яка
допустима імовірність помилки pe , якщо задана величина   10% .
1) pe  2,5  102
2) pe  2,5  103
3) pe  2,5  104
4) pe  2,5  105
15. При передаванні неперервної інформації цифровими методами
відносна середньоквадратична похибка відтворення інформації

і імовірність
помилки на 1 біт пов’язані співвідношенням pe  2,5  102  2 . Яка величина середньоквадратичної похибки передачі буде забезпечена в системі зв’язку,
якщо pe  105 ?
1)   2%
2)   4%
3)   6%
4)   8%
16. Які значення неперервного повідомлення передаються в системі
ДІКМ в і-ий момент часу?
1) x(ti )
2) x(ti )  x(ti  1)
3) x(ti )  x(ti  1)
4) x(ti  1)  x(ti  1)
17. Як співвідноситься кількість інформаційних розрядів в кодових
комбінаціях при застосуванні ІКМ та ДІКМ?
1) К ДІКМ  К ІКМ
2) К ДІКМ  К ІКМ
3) К ДІКМ  К ІКМ
18. Скільки розрядів налічує кодова комбінація для передачі одного
відліку неперервного повідомлення при використанні дельта-модуляції?
1) 1
2) 2
3) 3
4) 4
19. Яке з співвідношень правильно відображає швидкість цифрового потоку RЦП при передаванні неперервних повідомлень методами ІКМ та дельтамодуляції (ДМ)?
1) RІКМ  RДМ
2) RІКМ  RДМ
3) RІКМ  RДМ
20. При виконанні якої нерівності квантувач в системі з дельтамодуляцією формує сигнал 1?
1) x(ti )  xкв (ti 1 )
2) x(ti )  xкв (ti 1 )
3) x(ti )  xкв (ti 1 )
Практичне заняття № 5
"Аналогові та цифрові методи передачі й прийому неперервних сигналів
"
Мета заняття: З використанням вивченого теоретичного матеріалу навчитися розраховувати завадостійкість систем передачі незперервних повідомлень аналоговими і цифровими сигналами з різними видами модуляції, порівняти їх енергетичну ефективність.
Спочатку наводяться приклади рішень типових практичних задач,
потім формулюються умови задач для самостійного рішення, причому числові
значення для вирішення задач надані в 10 варіантах.
Приклади розв’язання основних типів задач
Приклад 1. Обчислити відносну середню квадратичну помилку при оптимальному прийманні неперервних сигналів з амплітудною модуляцією, якщо
потужність сигналу на вході Pc  10 13 Вт, глибина модуляції m АМ  1,0 , пікфактор
повідомлення
k пх  3,
верхня
частота
спектра
повідомлення
FB  3,4 кГц, приймач працює при температурі t 0C  30 0.
Розв’язання. Спектральна густина нормального білого шуму обчислюється за формулою
N 0  kT k ,
де k  1,38  10 23 Вт/град  Гц - постійна Больцмана,
T k - температура в градусах Кельвіна.
Тоді потужність шуму, приведена до входу приймача, обчислюється за
формулою
Pш  N 0  f k ,
де f k - ширина смуги пропускання каналу (приймача).
При амплітудній модуляції і оптимальному прийманні
f k  f c  2 FB  2  3,4  6,8 кГц ;
Рш  1,38  10 23  303  6,8  10 3  2,84  10 18 Вт.
Остаточно квадрат середньої квадратичної помилки обчислюється за формулою
2
 АМ
2
1 Рш k пх
1 2,84  10 18 12
 
 2  
 2  1,58  10  3 ,

14
2 Рс mАМ 2
10
3
 АМ  3,97  10 2  4%.
Приклад 2. Обчислити необхідну потужність
Рс
амплітудно-
модульованного сигналу на вході оптимального приймача для забезпечення
середньої квадратичної помилки відтворення не більше 2 %, якщо максимальна
частота спектра повідомлення FB  6 кГц, глибина модуляції m АМ  0,8 , пікфактор повідомлення k пх  5 , спектральна густина завади N 0  5  10 21 Вт/Гц.
Розв’язання. Із формули
2
 АМ
2
1 Рш k пх
 
 2
2 Рс mАМ
отримаємо необхідне значення Рс
2
2
2
N 0  f c  kпх
N 0  2 FB  kпх
Pш  kпх
Рс  2 2 


2
2
2  mАМ
2 2  mАМ
2 2  mАМ
5  1021  2  6  103  52

 2,93  1011 Вт.
4
2
2  4  10  0,8
Приклад 3. Обчислити відносну середню квадратичну помилку
відтворення повідомлення при оптимальному прийманні неперервних сигналів
з частотною модуляцією, якщо потужність сигналу на вході Pc  10 14 Вт, верхня частота спектра повідомлення FB  12 кГц, індекс частотної модуляції
mЧМ  5 , пік-фактор повідомлення k пх  5 , робоча температура приймача
t 0C  30 0.
Розв’язання. Спектральна густина нормального білого шуму обчислюється за формулою
N 0  kT k ,
де k  1,38  10 23 Вт/град  Гц - постійна Больцмана,
T k - температура в градусах Кельвіна.
Тоді потужність шуму, приведена до входу приймача, обчислюється за формулою
Pш  N 0  f k ,
де f k - ширина смуги пропускання каналу (приймача).
При частотній модуляції і оптимальному прийманні
f k  f c  2mЧМ  FB  1  1 mЧМ   1,44  105 Гц,
Pш  1,38  10 23  303  1,44  10 5  6,02  10 16 Вт.
Квадрат середньої квадратичної помилки відтворення
2
ЧМ

2
kпх
FB Pш
52
12  103 6,02  1016





 16,7  104 ,
2
2
5
14
3mЧМ f c Pc 3  5 1,44  10
10
ЧМ  4,08  10 2  4%.
Приклад 4. Обчислити необхідне відношення сигнал/шум на вході оптимального приймача частотно-модульованих сигналів для забезпечення середньої квадратичної помилки відтворення повідомлень не більше 1 %, якщо
максимальна частота спектра повідомлення FB  10 кГц, індекс частотної модуляції mЧМ  4 , пік-фактор повідомлення k пх  4 .
Розв’язання. Із формули
2
ЧМ

2
k пх
2
3mЧМ

FB Pш

f c Pc
отримаємо
2
2
Pc
kпх
FB
kпх
1
1
 2  2 
 2  2 
Pш ЧМ
3mЧМ f c ЧМ
3mЧМ
FB


1 
2mЧМ FB 1 

mЧМ 

2
kпх
1
1
42
 2  3


 333.
ЧМ 6mЧМ 1  1 mЧМ  104 6  43 1  0,25 
Приклад 5. Визначити необхідну потужність сигналу Рс на вході приймача, якщо по каналу зв’язку здійснюється цифрове передавання неперервних
повідомлень з використанням амплітудної модуляції і некогерентного прий-
мання. Верхня частота спектра передаваних мовних повідомлень FB  3,4 кГц,
число рівнів квантування M  256, задана відносна середня квадратична помилка
відтворення
повідомлень
  5% , шумова температура приймача
T k  300K .
Розв’язання. Виходячи з формули, яка пов’язує середню квадратичну
помилку відтворення повідомлень з допустимою імовірністю помилкового
приймання одного символу цифрового повідомлення, визначимо її
pe  2,5  10 2  2  2,5  10 2  52  10 4  6,25  10 5.
Необхідна потужність сигналу на вході некогерентного приймача АМ
сигналів знайдемо із формули, яка пов’язує допустиму імовірність помилки з
необхідним відношенням сигнал/шум
 q2 
pe  0,5 exp  ,
 4 
q 2  4 ln 1 2 pe ;
Pc
 4 ln 1 2 pe ;
Pш
Pc  4 ln 1 2 pe   Pш  4 ln 1 2 pe   k  T k  f k .
При амплітудній модуляції f k  1,2 B , де B - швидкість модуляції,
яка визначається формулою
B  Fдискр.  n ,
де n - кількість розрядів в кодовій комбінації цифрового сигналу,
n  log 2 M , Fдискр.  2,5  FB .
Таким чином остаточна розрахункова формула
Pc  4ln 1 2 pe   k  T k  1,2  2,5FB  log M 
 4ln 1 2  6,25  105   1,38  1023  303  3  3,4  103 log 256  1,23  10 14 Вт.
Приклад 6. Визначити необхідну потужність сигналу на вході приймача,
якщо по каналу зв’язку здійснюється цифрове передавання неперервних по-
відомлень з використанням частотної модуляції і некогерентного приймання.
Верхня частота спектра передаваних повідомлень FB  5 кГц, число рівнів
квантування M  128, задана відносна середня квадратична помилка відтворення повідомлень   6% , спектральна густина шуму N 0  5  10 21 Вт/Гц.
Розв’язання. Необхідне відношення сигнал/шум на вході приймача
визначається із формули


pe  0,5 exp  q 2 / 2 ; q 2  2 ln 1 2 pe  .
Потужність сигналу на вході приймача
Pc  2 ln 1 2 pe   Pш ,
де
Pш  N0  f k  N0  2,2B  N0  2,2  2,5  FB  log M 
 5  1021  2,2  2,5  5  103  7  9,62  1016 Вт.
Допустима імовірність помилки на один символ цифрового сигналу
pe  2,5  10 2  2  2,5  10 2  6 2  10 4  9  10 5.
Остаточно


Pc  2 ln 1 2  9  10 5  9,62  10 16  1,65  10 14 Вт .
Приклад 7. По системі радіозв’язку необхідно передавати мовний сигнал з
верхньою частотою спектру FB  3,4 кГц і відносною середньою квадратичною
помилкою відтворення 3%. Пік-фактор мовного сигналу k пх  3 . Визначити і
спів ставити необхідну потужність сигналу Рс на вході приймача, в якому
завадою є нормальний білий шум з спектральною густиною потужності
N 0  5  10 21 Вт/Гц при використанні таких методів передавання:
1)
амплітудна модуляція з коефіцієнтом глибини модуляції m AМ  1;
2)
вузькосмугова частотна модуляція з індексом модуляції mЧМ  1 ;
3)
вузькосмугова фазова модуляція з індексом модуляції mФМ  1 ;
4)
цифрова модуляція ІКМ-АМ з числом рівнів квантування мовного
сигналу M  256 і вузькосмуговим некогерентним прийманням;
5)
цифрова модуляція ІКМ-ЧМ з числом рівнів квантування мовного
сигналу M  256 і вузькосмуговим некогерентним прийманням;
6)
цифрова модуляція ІКМ-ВФМ з числом рівнів квантування M  256
і вузькосмуговим приймання методом порівняння фаз.
Розв’язання. Обчислення в цій задачі виконуються з використанням формул, отриманих при розв’язанні прикладів 1-9.
1) Амплітудна модуляція
Рс 
2
N 0  FB  k пх

 m 2АМ
2

5  10 21  3,4  10 3  32
3,2  10
4
1
2
 1,7  10 13 Вт.
2) Частотна модуляція
Рс 
2
k пх
 N 0  FB

2
2
 3mЧМ

32  5  10 21  3,4  10 3
3  10
2
4
 3 1
2
 0,57  10 13 Вт.
3) Фазова модуляція
Рс 
2
k пх
 N 0  FB

2
2
 mФМ

32  5  10 21  3,4  10 3
3  10
2
4
1
2
 1,7  10 13 Вт.
4) Цифрова модуляція ІКМ-АМ
Pc  4 ln 1 2 pe   Рш ,
де pe  2,5  10 2   2  2,5  10 2  32  10 4  2,25  10 5
Pш  N0  f k  N0  1,2B  N0  1,2  2,5  FB  log M  3N 0  FB  log M 
 3  5  1021  3,4  103  log 256  4,08  1016 Вт.
Pc  4  10  4,08  10 16  1,63  10 14 Вт .
5) Цифрова модуляція ІКМ-ЧМ
Pc  2ln 1 5  102   2   5,5  N0  FB  log M 
 2  10  5,5  5  1021  3,4  103  log 256  1,5  1014 Вт.
6) Цифрова модуляція ІКМ-ВФМ
Pc  ln 1 5  102   2   3  N0  FB  log M 
 10  3,5  1021  3,4  103  log 256  0,4  1014 Вт.
Задачі для самостійного розв’язання
Задача 1. Визначити необхідну потужність сигналу Рс на вході оптимального приймача амплітудно-модульованих сигналів, якщо задані верхня
частота передаваного повідомлення FB , пік-фактор повідомлення k пх , глибина
модуляції m AМ , середня квадратична помилка відтворення  . Спектральна
густина нормального білого шуму в тракті приймача N 0 .
Вихідні
Номер варіанта
дані
0
1
2
3
4
5
6
7
8
9
FB , кГц
3
3,5
4
4,5
5
5,5
6
6,5
7
7,5
k пх
2
2,5
3
3,5
4
4,5
5
4,5
4
3,5
m AМ
1
0,95
0,9
0,85
0,8
0,75
0,8
0,85
0,9
0,95
 ,%
1
2
3
4
5
6
7
8
9
10
N 0  10 21 , Вт/Гц
5
6
7
8
9
10
11
12
13
14
Задача 2. Визначити необхідну потужність сигналу Рс на вході оптимального приймача частотно-модульованих сигналів, якщо задані верхня частота
передаваного повідомлення FB , пік-фактор повідомлення k пх , індекс модуляції
mЧМ , середня квадратична помилка відтворення  . Спектральна густина нормального білого шуму в тракті приймача N 0 .
Вихідні
Номер варіанта
дані
0
1
2
3
4
5
6
7
8
9
FB , кГц
3
3,5
4
4,5
5
5,5
6
6,5
7
7,5
k пх
2
2,5
3
3,5
4
4,5
5
4,5
4
3,5
mЧМ
1
1,5
2
2,5
3
3,5
4
4,5
5
4,5
 ,%
1
2
3
4
5
6
7
8
9
10
N 0  10 21 , Вт/Гц
5
6
7
8
9
10
11
12
13
14
Задача 3. Визначити необхідну потужність сигналу Рс на вході оптимального приймача цифрового сигналу з амплітудною модуляцією, якщо задані
верхня частота передаваного повідомлення FB , число рівнів квантування M ,
середня квадратична помилка відтворення  . Спектральна густина нормального білого шуму в тракті приймача N 0 .
Вихідні
Номер варіанта
дані
0
1
2
3
4
5
6
7
8
9
FB , кГц
3
3,5
4
4,5
5
5,5
6
6,5
7
7,5
M
128
256
128
256
128
256
128
256
128
256
 ,%
1
2
3
4
5
6
7
8
9
10
N 0  10 21 , Вт/Гц
5
6
7
8
9
10
11
12
13
14
Задача 4. Визначте необхідне відношення сигнал/шум на вході оптимального приймача АМ сигналів, якщо задані значення відносної середньої квадратичної помилки відтворення неперервних повідомлень , пікфактор повідомлення kп і коефіцієнт глибини модуляції mАМ.
Вихідні
Номер варіанту
дані
0
1
2
3
4
5
6
7
8
9

0,1
0,05
0,01
0,1
0,05
0,01
0,1
0,05
0,01
0,1
kп
2
2
2,5
3
3,5
2
2
2,5
3
3,5
0,9
0,8
1
0,9
0,8
1
0,9
0,8
1
mАМ
1
ВИСНОВКИ: В результаті отриманих рішень чисельних прикладів і задач
підтверджені теоретичні положення про те, що найвища (потенційна) завадостійкість досягається при слідкуючому прийманні неперервних сигналів на фоні
нормального "білого" шуму. Цифрові методи передачі неперервних повідомлень забезпечують більш високу якість відтворення в порівнянні з аналоговими
при однакових співвідношеннях сигнал / шум.
ЛЕКЦІЯ 11
БАГАТОКАНАЛЬНІ СИСТЕМИ ПЕРЕДАЧІ ІНФОРМАЦІЇ
Мета – вивчення основних принципів побудови і застосування багатоканальних систем передавання інформації, методів ефективного ущільнення і поділу
каналів, основних інформаційно – технічних характеристик цих систем.
В лекції будуть розглянуті наступні питання:
1.
Узагальнена структура багатоканальної системи зв’язку.
2.
Системи зв’язку із частотним поділом каналів.
3.
Системи зв’язку із часовим поділом каналів.
1.Узагальнена структура багатоканальної системи зв’язку
Завданням багатоканальних систем зв'язку є передача повідомлень від багатьох джерел одночасно. Узагальнена структурна схема багатоканальної радіосистеми
передачі
інформації
РТСПІ
представлена
, сформовані від джерел
ри
на
мал.1.
Повідомлення
подаються на канальні модулято-
й модулюють канальні сигнали, вироблювані генератором
канальних сигналів ГКС. Нам виході канальних модуляторів формуються модульовані канальні сигнали sk1  t  ,...skn  t  , які поєднуються в груповий сигнал sгр  t 
пристроєм об'єднання УО. Груповий сигнал sгр  t  
n
 ski  t  sгр  t  надходить на
i 1
ГСС
ГКС
Д1
КМ1
СКС1
кд1
а1
СКС2
кд2
а2
СКСn
кдn
аn
ПО
Д2
Дn
спільний
КМ2
СМ
Пер
Прм
СД
КМn
модулятор
СМ
і
модулює
несучу, вироблювану передавачем Пер.
Малюнок 1
Прийнятий сигнал піддається обробці (підсиленню, фільтрації, і т.д. ) у лінійній частині приймача Прм і демодулюється в спільному демодуляторі СД. Виділена оцінка групового сигналу
надходить на селектори канальних сигналів
СКС, кожний з яких виділяє з
відповідний модульований канальний сигнал.
У ряді випадків для функціонування СКС необхідні селекторні сигнали, вироблювані генератором селекторних сигналів ГСС. Оцінки модульованих канальних
сигналів
демодулюються в канальних демодуляторах КД, у результаті чого
виділяються оцінки повідомлень
, що надходять до одержувачів повідомлень
. Канальні модулятори, генератор канальних сигналів і пристрій об'єднання
утворюють на передавальній стороні пристрій ущільнення каналів ПУК. Селектори
канальних сигналів, генератор селекторних сигналів і канальні демодулятори
утворюють пристрій поділу каналів ППК на приймальній стороні.
У багатоканальних СПІ для передачі повідомлень від багатьох джерел використовується один спільних тракт (вхід СМ - вихід СД), що, як правило, є найбільш
коштовною частиною СПІ. Тому передача декількох повідомлень за допомогою
багатоканальних СПІ економічно більш доцільне, ніж створення окремих СПІ для
передачі кожного повідомлення.
У багатоканальних СПІ модульовані канальні сигнали
наділяються та-
кими ознаками, щоб у прийомної частини їх можна було розділити. При цьому
найпоширеніші лінійні методи , коли СКС є лінійними пристроями з постійними
або змінними параметрами, а ПО - лінійний суматор. Відомі також інші методи
поділу каналів. При лінійному поділі каналів груповий сигнал являє собою суму
модульованих канальних сигналів:
n
sгр  t    ski  t  .
i 1
Необхідною й достатньою умовою виконання є умова поділу сигналів ski  t  лінійна залежність модульованих канальних сигналів або їх ортогональність.
2.Системи зв’язку із частотним поділом каналів
В основі принципу частотного поділу каналів (ЧПК) лежить використання канальних сигналів, спектри яких не перекриваються. Повідомлення з виходів
джерел Д (мал.1) подаються на канальні модулятори КМ, де модулюються гармонійні піднесучі, вироблювані генератором що піднесучих ГП. Груповий сигнал,
сформований суматором
, подається на спільний модулятор (СМ) і модулює
високочастотну несучу, вироблювану передавачем Пер, який випромінюється
передавальною антеною.
Д1
КМ1
ГП1
Д2
КМ2
ГП2
Дn
КМn
ГПn
∑
СМ
Пер
Пр
ОД
ПФ1
КД1
П1
ПФ2
КД2
П2
ПФn
КДn
Пn
Малюнок 2- Структурна схема з частотним поділом каналів
На приймальній стороні прийнятий високочастотний сигнал підсилюється й
фільтрується в лінійній частині приймача Прм, потім демодулюється спільним
демодулятором СД, на виході якого виділяється оцінка групового сигналу
.
Для поділу канальних сигналів використовуються смугові фільтри СФ, кожний з
яких виділяє піднесучу даного каналу й придушує піднесучі інших каналів. З
виходів смугових фільтрів модульовані піднесучі надходять на канальні демодулятори КД, які формують оцінки переданих повідомлень
.
У системах зі ЧПК є два щаблі модуляції: піднесучої переданим повідомленням і несучої груповим сигналом. У кожному щаблі може використовуватися один
з видів аналогової модуляції гармонійного сигналу: АМ, БМ, ОБП, ФМ, ЧМ.
Системи зі ЧПК класифікуються за видами модуляції піднесійної та несійної.
Наприклад, у системі АМ-ЧМ поднесійна модульована по амплітуді, а несуча по
частоті. У принципі розрізняють більше двох десятків видів систем з ЧПК. Однак
реально використовується тільки частина з них, наприклад ОБП-ЧМ у радіорелейних лініях зв'язку.
Якість розділення сигналів в системах з ЧПК погіршується нелінійними і перехідними спотвореннями. Перехідні спотворення проявляються у взаємному
впливі каналів. Вони, в основному, викликані перекриттям спектрів канальних
сигналів, неповним придушенням канальних сигналів інших каналів у смугових
фільтрах, не лінійністю спільного тракту (вхід спільного модулятора – вихід
спільного демодулятору). Для боротьби з першими двома причинами перехідних
завад необхідно зменшувати рівень поз смугових складових канальних сигналів і
покращувати фільтруючі властивості смугових фільтрів.
Для видалення взаємного впливу між каналами необхідно, щоб спектри модульованих сигналів не перекривались, тому під несучі частоти обираються із умов
і т.д. З урахуванням того, що смугові фільтри в
приймальній апаратурі не можуть забезпечити високі селекції близько розташованих частот то необхідно смуги канальних сигналів розташовувати на відстані
одна від одної, тобто вводити так звані захисні інтервали, які мають величини до
10-30% від ширини смуги канальних сигналів.
Недоліками частотного розділення каналів є:
1)
розширення смуги частот багатоканальної системи відповідно до
збільшення кількості каналів;
2)
неповне використання заданого діапазона частот, тому що втрати
смуги на розфільтровування
досягає до 30-40%. Для зменшення цих
втрат доводиться застосувати складні коштовні фільтри, які мають високу
крутизну характеристики придушення;
3)
громіздкість і висока вартість апаратури, яка містить велику кількість фільтрів, перетворювачів частоти і інших пристроїв у кожному каналів.
Внаслідок цього системи з частотним поділом каналів в даний час не розробляються і не виробляються.
3Системи зв’язку із часовим поділом каналів
Принцип часового поділу каналів (ЧаПК) грунтується на часовій дискретизації
переданих повідомлень і рознесенні в часі канальних сигналів. Структурна схема
передавальної частини системи із ЧаПК наведена на мал. 3а. Епюри напруг наведені на мал. 3б. Номера епюр збігаються з номерами контрольних точок на мал. 3а.
Малюнок 3 – Структурна схема передавальної частини.
Ритм роботи системи із ЧаПК задається високостабільним генератором тактових імпульсів (ГТІ). Тактові імпульси (мал. 2 б, епюр 1) з періодом T Д надходять
на генератор канальних імпульсів ГКІ, що має N  1 виходів, де N - кільуість
каналів. На виходах формуються періодичні послідовності імпульсів, показаних на
епюрах 2-5. Канальні імпульси надходять на канальні модулятори КМ, де модулюються повідомленнями (епюри 6-8), що надходять від джерел Д. На виходах КМ
формуються модульовані канальні сигнали (епюри 9-11). Параметри модуляції
підбираються так, щоб імпульси різних модульованих канальних сигналів не
перекривалися. Канальні сигнали подаються на лінійний суматор  одночасно з
послідовністю синхронізуючих імпульсів, вироблюваних пристроєм формування
синхронізуючих імпульсів (УФСІ) (епюр 12), які необхідні для синхронізації
роботи прийомної частини. Вони повинні різко відрізнятися від канальних імпульсів, щоб їх можна було виділити із загального потоку імпульсів. На виході суматора утвориться груповий сигнал (епюр 13), що складається з послідовності синхро-
нізуючих і модульованих канальних імпульсів. Груповий сигнал надходить на
спільний модулятор (СМ) і модулює високочастотну несучу, вироблювану передавачем (Пер).
У прийомної частини системи із ЧаПК (мал. 4а) прийнятий сигнал підсилюється й фільтрується в лінійній частині приймача Прм, потім демодулюється в
спільному демодуляторі (СД), на виході якого виділяється оцінка групового
сигналу
. Виділений груповий сигнал
(епюр 1) подається на селектор
синхроімпульсів (ССІ), що може являти собою, наприклад, інтегруючий ланцюг із
граничним пристроєм на виході, що спрацьовує при дії на вході інтегруючого
ланцюга синхроімпульсу (епюри 2,3). Виділені синхроімпульси надходять на
генератор канальних селекторних імпульсів (ГКСІ), що має N виходів. На кожному виході ГКСІ формується імпульсна послідовність, тимчасове положення якої
збігається з одним з канальних сигналів (епюри 4-6). Ці послідовності подаються
на канальні селектори (КС), які виділяють канальні сигнали (епюри 7-9). Ці
сигнали надходять на канальні демодулятори (КД), де формуються оцінки переданих повідомлень (епюри 10-12), що надходять до одержувачів
2
.
3
ССИ
1
ГКСИ
2
4 5 6
КС1
Прм
ОД
1
КС2
7
8
10
КД1
3
П1
11
КД2
4
5
П2
6
7
8
12
КСn
КДn
Пn
9
10
a)
11
б) 12
t
t
t
t
t
t
t
t
t
t
t
t
Малюнок 4 – Структурна схема приймальної частини
Класифікація систем із ВРК здійснюється по виду модуляції в щаблях модуляції. Наприклад, у системі ЧІМ-ЧМ у першому щаблі модуляції використовується
ЧІМ, а в другий - ЧМ. У цей час у каналах звичайно використовується один з видів
цифрової модуляції (ІКМ, ДІКМ, АДІКМ і т.д.), тому ці системи є цифровими.
Основними переваги багатоканальних систем з ЧаПК є:
1. Висока вірогідність приймання інформації при застосуванні найбільш завадостійких методів передавання з імпульсно – кодовою і дельта – модуляцію.
2. Висока стабільність роботи канальних пристроїв.
3. Низька вартість і малі габарити апаратури, обумовлені:
a) відсутність канадських смугових фільтрів, вартість яких сягає
40% загальної вартості обладнання;
b) можливість використання мікромодулів на інтегральних схемах.
Однак є і недоліки:
1. Необхідність підтримки синхронної роботи комутаторів каналів.
2. Можливість появи взаємних завад між каналами при спотворенні форми імпульсів.
Висновки
Для передавання великих обсягів інформації від сукупності джерел застосовуються багатоканальні системи зв’язку. Розглянуті системи з частотним і часовим
ущільненням і поділом каналів, проаналізована їх робота, зроблене порівняння за
інформаційно – технічними характеристиками.
Тестові запитання
1. Який з варіантів побудови систем з частотним розділенням каналів найбільш поширений?
1) АМ-АМ
2) АМ-ЧМ
3) ОМ-ЧМ
4) ОМ-АМ
2. Чому в системах з частотним розділенням каналів в каналах доцільно застосовувати односмугову модуляцію?
1) це дозволяє збільшити вірогідність передавання інформації
2) це дозволяє збільшити в 2 рази кількість каналів в дозволеній смузі
частот
3) це дозволяє спростити побудову канало-створюючої апаратури
3. Чому в системах з частотним розділенням каналів в радіопередавачі доцільно застосовувати частотну модуляцію?
1) це дозволяє забезпечити високу завадостійкість системи
2) це дозволяє спростити радіопередавач системи
3) це дозволяє зменшити енергетичні витрати
4. Система с частотним розділенням каналів призначена для передавання
дискретних сигналів тривалістю Тс. Яке мінімальне рознесення між частотами
 i та  i 1 необхідно забезпечувати?
1)
2)
3)
4)
5. Яка з формул визначає пік-фактор канального сигналу в системі з частотним розділенням каналів?
Sк еф
1) kпх 
Sк max
2) kпх 
S к2 max
S к еф
3) kпх 
S к max
S к еф
6. По системі з часовим розділенням передаються неперервні повідомлення. Який максимальний проміжок часу можна відвести для передавання інформації одного каналу, якщо кількість каналів N  10 , верхня частота спектру
канального повідомлення Fв  5 кГц?
1) 1 мкс
2) 5 мкс
3) 10 мкс
4) 50 мкс
7. Який з параметрів імпульсу доцільно використовувати при формуванні
синхросигналів в системах з часовим розділенням каналів?
1) амплітуду
2) тривалість
3) часове положення
8. Який вид імпульсної модуляції застосовується в каналах сучасних систем з часовим розділенням каналів?
1) АІМ
2) ШІМ
3) ФІМ
4) ІКМ
9. По системі з часовим розділенням каналів передаються неперервні повідомлення з використанням імпульсно-кодової модуляції. Яка максимально
допустима тривалість одного імпульсу, якщо кількість рівнів квантування
L  256 , верхня частота спектра канального повідомлення Fв  6,25 кГц, а кіль-
кість каналів N  10 ?
1) 1 мкс
2) 2 мкс
3) 10 мкс
4) 20 мкс
10. Яка з комбінацій первинної і вторинної модуляції може бути застосована в системі з часовим розділенням каналів?
1) АМ-ЧМ
2) ЧМ-ЧМ
3) ФМ-ИКМ
4) ИКМ-ФМ
ЛЕКЦІЯ 12
БАГАТОКАНАЛЬНІ СИСТЕМИ ПЕРЕДАЧІ ІНФОРМАЦІЇ
Мета лекції – вивчення методів побудови і основних шляхів реалізації систем, які забезпечують одночасним зв’язком велике число стаціонарних і рухомих
об’єктів, довільно розташованих на деякій території.
В лекції будуть розглянуті наступні питання:
1. Поняття про багатостанційний доступ
2. Системи з часовим поділом каналів
3. Системи із частотним поділом каналів
4. Системи з кодовим поділом каналів
5. Асинхронно – адресні системи передачі інформації
1. Поняття про багатостанційний доступ
Існуючі в цей час і проектовані СПІ повинні забезпечувати одночасним зв'язком велику кількість стаціонарних і рухливих об'єктів, довільно розташованих на
деякій території. Внаслідок цього перспективними є багатостанційні СПІ. У таких
системах необхідно здійснювати багатостанційний доступ (МСД) у спільний
частотний канал, при якому кореспонденти передають (і приймають) незалежно
друг від друга інформацію тоді, коли в цьому виникає необхідність. Багатостанційні СПІ відіграють основну роль при побудові систем зв'язку з рухливими об'єктами
(літаками, кораблями, автомобілями). Бачатостанційний доступ у спільний частотний канал є найбільш доцільним методом побудови супутникових систем.
До складу таких систем входить звичайно ℓ кореспондентів, кожний з яких є
джерелом дискретної або неперервної інформації
. Повідомлення
кожного кореспондента перетворюються в сигнал si  t  . Однак системи МСД
мають ряд істотних відмінностей від багатоканальних систем. Так, груповий
сигнал s  t  утворюються в результаті додавання радіосигналів кореспондентів
безпосередньо в канал (мал.1), відсутня часова синхронізація джерел інформації,
рівні прийнятих сигналів можуть істотно розрізнятися, наприклад, через різну
довжину трас поширення.
Поряд з завадами в системах МСД діють специфічні для цих систем спотворення, пов'язані із впливом сигналів кореспондентів один на одного при виділенні
їх із групового сигналу (міжстанційні завади). Зменшення цього впливу й відповідно ослаблення спотвореннь переданих повідомлень можуть бути досягнуті правильним вибором сигналів і методів їхнього виділення із групового сигналу.
У системах БСД всі сигнали
які звуться адресними, можуть
або заздалегідь розподілятися й закріплюватися за конкретними кореспондентами,
або виділятися їм тільки на час сеансу зв'язку, після якого ці сигнали використовуються іншими кореспондентами системи. Метод розподілу сигналів між кореспондентами визначається взаємодією станцій у системі БСД і активністю кореспондентів.
За характером організації спільної роботи станцій розрізняють системи БСД із
обмеженим доступом (контрольовані) і з вільним доступом кореспондентів у
спільний частотний канал (неконтрольовані).
У неконтрольованих системах БСД адресні сигнали
жорстко закріплю-
ються за певними кореспондентами. Це забезпечує можливість зв'язку кожної пари
кореспондентів незалежно від інших. У таких системах число сигналів k приблизно дорівнює загальному числу кореспондентів.
Малюнок 1 - Структурна схема багатостанційної РТСПІ
У контрольованих системах БСД сигнали не закріплюються жорстко за кореспондентами, а виділяються їм у міру необхідності виходу на зв'язок. Число сигналів у контрольованій системі БСД може бути набагато менше загального числа
кореспондентів
, що обслуговуються системою:
. Пояснюється це тим, що
в контрольованій системи враховується статистика роботи від діючих кореспонде-
нтів, тобто той факт, що кореспонденти в системі передають інформацію не
безперервно й число активних кореспондентів
звичайно значно менше la max .
2. Системи з часовим поділом каналів
У системах багатостанційного доступу з часовим поділом (БДЧаП) кожний
кореспондент передає (або приймає) інформацію протягом спеціально для нього
відведених інтервалів часу. Метод БДЧаП широко розповсюджений у супутникових системах зв'язку, які представляють собою мережі з радіальним об'єднанням
кореспондентів. Ретранслятор на супутнику по черзі надається для передачі
сигналів кожної земної станції системи БСД. Щоб виключити накладення сигналів
різних станцій один на одного через помилки часової синхронізації, між ними
передбачаються захисні тимчасові інтервали. Принцип формування групового
сигналу на вході ретранслятора РТР при роботі передавачів трьох земних станцій
ЗС пояснюється мал.2, де
 i — час, протягом якого кожна ЗС випромінює свої
сигнали, Ti — період проходження цих сигналів,
 з — захисний інтервал,  c —
тривалість сигналу, що забезпечує синхронізацію в системі МДЧаП.
Малюнок 2 - Діаграми формування групового сигналу в системі МДЧап
Ti

РТР
1
t
1
t расч t3
t3
ЗС1
 2
t
t3
ЗС2
t
 2
t3
Малюнок 3 - Діаграма, що пояснює програмний метод синхронізації при
МДЧаП
3. Системи із частотним поділом каналів
У системах багатостанційного доступу із частотним поділом (БДЧП) сигналу
кожного кореспондента надається окрема смуга частот. Число цих смуг визначається шириною загальної смуги частот, виділеної системі БДЧП. При такому
методі всі сигнали кореспондентів мають однакову форму й можуть передаватися
одночасно й неперервно. Значення несучих частот передавачів станцій у системі
вибирають так, щоб між спектрами окремих сигналів залишалися захисні інтервали
для зменшення міжстанційних завад.
Для організації зв'язку в системі БДЧП може використовуватися так званий
метод приймальної хвилі. Це означає, що кожному приймачу надається певна
несуча частота (хвиля). Передавачі перестроюються по всьому діапазону залежно
від номера частоти кореспондента, з яким вони хочуть зв'язатися.
Основними достоїнствами систем БДЧП є: простота реалізації й можливість
сумісності з існуючими РСПІ, а також відсутність необхідності синхронізації
роботи станцій, що входять у систему.
4. Системи з кодовим поділом каналів
У системах з кодовим поділом сигнал кожного кореспондента кодується таким
чином, щоб сигнали були ортогональними. Кодове ущільнення дозволяє створюва-
ти як синхронні, так і асинхронні системи БСД. Достоїнством синхронних систем є
можливість досягнення повної ортогональності адресних сигналів. В асинхронних
системах не потрібно синхронізації за часом між сигналами кореспондентів. Однак
при асинхронній роботі передавачів у кожному приймачі при поділі сигналів
виникають міжстанційні завади, що є основним недоліком даних систем. Цей
недолік не знижує того інтересу, що проявляється до подібних до систем у зв'язку з
можливістю незалежної друг від друга в часі роботи кореспондентів. Оскільки
форма кожного сигналу є адресою кореспондента, якому призначена закладена в
цьому сигналі інформація, такі системи називають асинхронно-адресними.
5. Асинхронно-адресні системи передачі інформації (ААС)
В ААС для поділу сигналів кореспондентів можна використовувати часовоінтервальні й частотно-тимчасові коди. У першому випадки коди різних адрес
відрізняються друг від друга інтервалами між імпульсами. У другому додатковими
ознаками кодоутворення є частота заповнення імпульсів.
Однак у цей час в ААС для поділу сигналів кореспондентів, що входять у систему, використовуються складні фазоманіпульовані сигнали, алгоритми формування яких легко реалізуються сучасною цифровою технікою.
Сигнали в ААС цього типу складаються з елементарних імпульсів, що мають
однакову несучу частоту й відрізняються за будь-яким параметром, наприклад по
фазі. Фаза змінюється за законом деякого коду, що модулює (мал. 4.а), причому
найпоширенішою є двофазна маніпуляція зі зсувом фази на 180° (мал. 4.б). Якщо
визначити смугу сигналу на мал. 4.а відомим співвідношенням Fc  1 T0 , то при
тривалості сигналу Tc  N  T0 його база B  N де N — число символів у модулюючій кодовій послідовності.
Системою сигналів називається множина сигналів, обєднаних єдиним правилом побудови (алгоритмом). Можлива кількість адресних сигналів k представляється як обсяг системи сигналів. Прийнято порівнювати обсяг системи складних
сигналів з базою В. Розрізняють малі системи сигналів з
(ортогональні або квазиортогональні) з k  B і більші с
систем сигналів є малими або нормальними.
, нормальні
. Більшість відомих
Сигнали, що входять у систему, повинні забезпечувати мінімально можливий
рівень взаємних завад, які для систем складних фазоманіпульованих сигналів
залежить від виду модуляції кодової послідовності. Серед безлічі кодових послідовностей особливий інтерес для застосування в ААС розглянутого типу представляють лінійні рекуррентні послідовності максимальної довжини, або скорочено Мпослідовності,сформовані за допомогою досить простих генераторів на основі
регістрів зсуву з лінійними зворотними зв'язками. Вони мають ряд важливих
властивостей, які дозволяють формувати на їхній основі квазиортогональні системи сигналів,що характеризуються досить слабкими взаємними завадоми.
T0
Tc  N  T0
а)
T0
Tc
б)
Малюнок 4 - Структура сигналів в ААС зі складними ФМ сигналами
У передавачі ААС зі складними фазоманіпульованими (ФМ) сигналами, призначеної для передачі дискретних повідомлень (мал. 5.а), від джерела інформації (Д)
послідовність символів 1 і 0 зі швидкістю RT  1 Tc (мал. 6.а) надходить на вхід
кодера-модулятора. На другий вхід кодера подається кодовий сигнал
(мал. 6.б)
від генератора коду (ГК). Цей сигнал має тривалість Tc і кількість імпульсів N.
Роботою ГК і Д керує синхронізатор (С), що формує необхідні сигнали керування й
тактові частоти. Модульована кодова послідовність (мал. 6.в) маніпулює по фазі в
модуляторі (Мод) коливання несучої частоти. У приймачі (мал. 5.б) сигнал переноситься на проміжну частоту, підсилюється в підсилювачі проміжної частоти (ППЧ)
і обробляється узгодженим фільтром (УФ). Сигнал з виходу УФ надходить на
синхронізатор (С) і вирішальний пристрій (ВП). Синхронізатор здійснює пошук
ФМ сигналу за часом і управляє режимом роботи вирішального пристрою. Після
входження в синхронізм на виході ВП з'являється інформаційна послідовність у
вигляді двійкових символів, що видається одержувачеві інформації (О).
Малюнок 5 - Структурні схеми передавача (а) і приймача (б) ААС зі складними ФМ сигналами
1
0
Tc
ai 
2Tc
ai 
1
3Tc
ai 
4Tc
t
a)












ai 
1
0
t
б)
Tc
t












в)
ai 
ai 
ai 
ai 
Малюнок 6 - Принцип передачі двійкової інформації в ААС зі складними
ФМ сигналами
Висновки
Розглянуті методи перетворення неперервних повідомлень в цифрову форму.
Доказана перевага цифрових методів передачі неперервної інформації. Вивчені
методи розрахунку завадостійкості цифрових систем передачі, наведені розрахункові формули вірогідності відтворення неперервних повідомлень при передаванні
цифровими методами.
Download