Теми рефератів
> Реферати > Курсові роботи > Звіти з практики > Курсові проекти > Питання та відповіді > Ессе > Доклади > Учбові матеріали > Контрольні роботи > Методички > Лекції > Твори > Підручники > Статті Контакти
Реферати, твори, дипломи, практика » Курсовые проекты » Розрахунок характеристик системи зв'язку

Реферат Розрахунок характеристик системи зв'язку





рифмічна функція від імовірності. Кількість інформації в достовірному подію (що має ймовірність=1) дорівнює нулю, а кількість інформації в неможливому подію (що має ймовірність=0) дорівнює нескінченності. Звідси можна зробити висновок, що чим менша ймовірність повідомлення (ланцюжки), тим більшу кількість інформації воно містить.


3. Обчислення безумовної та умовної ентропії джерела


Оскільки повідомлення випадкові, то і кількість інформації є випадковою величиною. Для того щоб охарактеризувати джерело більш повно використовують середню міру, звану ентропією. Звідси, ентропія - це математичне очікування по приватним кількостям інформації повідомлень, що генеруються джерелом. Безумовна ентропія джерела обчислюється за формулою:



Якщо найбільша невизначеність вибору при заданому обсязі алфавіту K відповідає ситуації, коли апріорні ймовірності всіх виборів рівні між собою. У цьому випадку ентропія дорівнює:



Між значеннями величин ентропій має дотримуватися умова:



Облік статистичних зв'язків між символами, послідовно обираних джерелом веде до подальшого зменшення ентропії. Насправді, чим більше імовірнісні зв'язку символів, тим менше свобода вибору подальших символів, тим менше в середньому інформації припадає на кожен знову обираний символ джерела і тим менше ентропія. Ентропія, що враховує статистичну залежність між символами, називається умовною і знаходиться за формулою:



Де


- умовна приватна ентропія, що обчислюється для кожного символу a i.



Між умовної ентропією і безумовної повинне дотримуватися нерівність:


У порівнянні з безумовною ентропією, умовна ентропія враховує більш тонку структуру імовірнісних властивостей джерела, тому, є більш точною характеристикою джерела.

Наявність в повідомленні більшого числа букв або в кодової комбінації більшого числа елементів, ніж це мінімально необхідно для передачі міститься в них кількості інформації, називають надмірністю. Розрахунок надмірності проводиться за формулою:



Продуктивність джерела - це середня кількість інформації, створюваної джерелом в одиницю часу:



де - середня тривалість одного символу, що видається джерелом.


4. Статистичне двійкове кодування джерела


Статистичне (або ефективне) кодування використовується для істотного зменшення надмірності повідомлень, обумовленої неравновероятностью і залежністю символів, що виробляються джерелом. Суть статистичного кодування зводиться до кодування символів джерела нерівномірним двійковим кодом за наступним правилом: для часто зустрічаються символів присвоюються короткі двійкові кодові комбінації, а для рідко зустрічаються - довгі кодові комбінації.

Одним з поширених алгоритмів статистичного кодування, є код Хаффмана. Кодування за Хаффману виконується в наступному порядку:

.


Назад | сторінка 2 з 2





Схожі реферати:

  • Реферат на тему: Проектування тракту передачі даних між джерелом і одержувачем інформації
  • Реферат на тему: Кодування інформації
  • Реферат на тему: Машинні коди, системи числення, кодування інформації
  • Реферат на тему: Кодування графічної інформації
  • Реферат на тему: Перетворення і кодування інформації. Код Хеммінга