4. Дискретизація і кодування сигналу зображення. Манчестерський код.

Для представлення зображення у вигляді набору цифр (кодових комбінацій), необхідно здійснити дискретизацію вихідного (аналогового) сигналу за часом і рівнем.

Дискретизація сигналу за часом базується на теоремі Котельникова — Найквіста: безперервну функцію x(t), спектр якої обмежений частотою Fт можна представити послідовністю миттєвих значень х(ti) у моменти дискретизації ti=i/2Fт, зміщені на інтервали, кратні величині Те=0,5/Fт. Однак реальні сигнали мають необмежений спектр, тому практично відновлення сигналу рядом Котельникова відбувається з визначеною похибкою. Для її зменшення крок дискретизації беруть меншим, наприклад, ti= (0,5ч0,25)i/2Fт.

У випадку передачі двох градаційних (графічних) зображень задача квантування вирішується просто, оскільки сигнал є дворівневим. Квантування здійснюється найпростішим формуючим пристроєм, наприклад тригером. Таке квантування виробляється для зручності передачі навіть в аналогових системах. Якщо цифровій передачі піддається напівтонове зображення, то задача квантування стає значно складніше.

Експериментально були отримані кількості рівнів квантування напівтонових зображень, при яких спостерігачі оцінюють зображення як гарні. Це — 64, 128 і 256 фіксованих рівнів яскравості. При меншому числі градацій через східчасті перепади яскравості виникають помилкові контури. Їх частково можна усунути, додавши до квантованного зображення невеликий флуктуаційний шум. При цьому на кожнім рядку сходинки квантування будуть зміщені і помилковий контур буде розбитий. Око не зможе просумувати перепади яскравості на послідовних рядках, об'єднавши їх у контур. Задачі оптимального квантування і дискретизації цілком ще не вирішені через їхню складність, а також відсутність об'єктивного і зручного критерію оцінки якості відновлених зображень.

Шенон ввів поняття кількісної міри невизначенності сигналу — ентропії і пов’язаної з ним зміни невизначенності.

Носій інформації — сигнал — має випадкову форму і природу. На основі поняття ентропії введено характеристики сигналів та інформаційних систем. Одна з них — це швидкість створення інформації на виході системи h – біт/сек.

Одним із найважливіших завдань є розробка спеціальних коректуючих кодів. Вони дозволяють виявляти і виправляти помилки.

Існує 2 фундаментальні теореми:

1. Для каналу, який не вносить перешкоди при передачі сигналу:

При передачі сигналу, його можна закодувати таким чином, щоб середнє число елементів коду, який належить на 1 елемент алфавіту, було мінімальним.

Цей мінімум визначається ентропією джерела, яка характеризує його стстистичні властивості. Таке кодування називається ефективним статистичним кодуванням.

При відсутності шумів потрібно забезпечити без надмірне кодування, передаючи найбільш вірогідні відліки та ділянки інформації найкоротшими кодовими символами.

2. Для каналу із спотвореннями існує спосіб кодування з виправленням помилок за рахунок надмірності, при якій буде передаватися інформація із будь-якою високою достовірнітю. Тобто з малою ймовірністю помилок, незважаючи на шуми в каналі. При цьому швидкість передачі Н на повинна перевищувати пропускну здатність каналу зв’язку.

Існує велика кількіть завадостійких кодів. Серед них розглянемо манчестерський код.

В цьому коді кожний розряд двійкового початкового коду записується в вигляді 2-х елементів

0→01 1→10

Таким чином в комбінації 0110→ 0110101.

Приймальний пристрій в кожному такті, який складається із двох сусідніх елементів кореляційного коду повинен зафіксувати перехід із 0 в 1 або із 1 в 0. Коли прийнято два нулі чи дві одиниці, то зразу фіксується помилка.

Кореляційний код надає можливість виявляти помилки будь-якої кратності. Однак він не може виявити двокртатні зеркальні помилки.

4.1 Надмірність зображень

Термін «надмірність» носить статистичний характер. Він визначає середню кількість інформації (ентропію), що містить повідомлення. Якби всі можливі повідомлення, що підлягають передачі, були незалежні один від одного і рівноможливі, то вони мали би максимальну кількість інформації. Уявимо собі двохградаційне зображення, що складається з випадково розташованих незалежних один від одного чорних і білих елементів. Приймемо імовірності появи чорного Р1 і білого Р2 елементів рівними: Р12=0,5. Тоді середня кількість інформації, що міститься в одному елементі



Якби всі рівні яскравості квантованого на N рівнів напівтонового зображення були рівноможливі і незалежні, то кожен рівень яскравості містив би Н=log2N біт. При N=128 H=16 біт. Насправді реальні зображення містять набагато меншу кількість інформації, що пояснюється наявністю сильних зв'язків елементів у зображенні. Однак повний підрахунок цих зв'язків являє собою важко розв'язну задачу. Тому, обмежуються розглядом зв'язків найближчих декількох елементів. Це дає занижене значення ентропії. Так, для двоградаційного зображення «середнього» газетного і машинописного тексту була отримана оцінка 0,06


Информация о работе «Система факсимильной связи (Система факсимільного звязку)»
Раздел: Радиоэлектроника
Количество знаков с пробелами: 65196
Количество таблиц: 1
Количество изображений: 0

0 комментариев


Наверх