Теми рефератів
> Реферати > Курсові роботи > Звіти з практики > Курсові проекти > Питання та відповіді > Ессе > Доклади > Учбові матеріали > Контрольні роботи > Методички > Лекції > Твори > Підручники > Статті Контакти
Реферати, твори, дипломи, практика » Лекции » Основи інформації та передачі сигналів. Базові логічні елементи

Реферат Основи інформації та передачі сигналів. Базові логічні елементи





ифри 4 не залежить від того, яка цифра випала в попередньому досвіді.

Приклад залежних подій: при передачі телеграм після приголосної букви більш вірогідна поява голосної букви, ніж другий приголосної.

Наступний приклад залежних подій: на трамвайній зупинці біля нашого будинку зупиняються трамваї трьох маршрутів. Умовно назвемо їх маршрут 1 raquo ;, маршрут 2 і маршрут 3 raquo ;. У результаті багаторазових спостережень ми встановили: при очікуванні трамвая ймовірність приходу перших маршруту 1 - Р (V1)=0,15, ймовірність приходу перших маршруту 2 - P (V2)=0,3, а - маршруту 3 - P (V3)=0,55. Сума всіх ймовірностей дорівнює 1, тому що який-небудь маршрут приїде (незалежно від часу очікування).

Припустимо, при підході до зупинки відійшов трамвай маршруту 2 raquo ;. Імовірність того, що наступним підійде трамвай цього маршруту P (U2/V2), - дуже мала; а ймовірності приходу трамваїв інших маршрутів збільшуються.

З наших міркувань можна скласти матрицю умовних ймовірностей приходу у другому досліді (подія U) трамваїв кожного маршруту, якщо відомо, який трамвай приходив у першому досліді (позначимо перший досвід - подія V):


? P (U1/V1) P (U2/V1) P (U3/V1)? (U/V) =? P (U1/V2) P (U2/V2) P (U3/V2)? (1.41)

? P (U1/V3) P (U2/V3) P (U3/V3)?.


Сума ймовірностей кожного рядка матриці (1.41) дорівнює 1, тому що незалежно від результату першого досвіду, у другому досвіді який-небудь маршрут обов'язково приїде.


? 0,05 0,3 0,65? (U/V) =? 0,2 0,15 0,65?

? 0,2 0,3 0,5?.


Крім умовних ймовірностей можна скласти матрицю вірогідності спільного появи двох подій:


? P (U1, V1) P (U2, V1) P (U3, V1)? (U, V) =? P (U1, V2) P (U2, V2) P (U3, V2)? (1.42)

? P (U1, V3) P (U2, V3) P (U3, V3)? ,


де: P (U2, V1) - імовірність того, що в першому досвіді - приїде трамвай 1-го маршруту, а в другому досвіді - трамвай 2-го маршруту.


Можливість спільного появи двох подій дорівнює добутку умовної ймовірності на безумовну ймовірність події в першому досвіді:

P (U2, V1)=P (V1) * P (U2/V1). (1.43)


Тому матрицю вірогідності спільного появи двох подій можна представити у такому вигляді:


? P (V1) * P (U1/V1) P (V1) * P (U2/V1) P (V1) * P (U3/V1)? (U, V) =? P (V2) * P (U1/V2) P (V2) * P (U2/V2) P (V2) * P (U3/V2)? (1.44)

? P (V3) * P (U1/V3) P (V3) * P (U2/V3) P (V3) * P (U3/V3)?


З цього випливає, що сума всіх елементів матриці (1.44) дорівнює 1.

Ентропія (невизначеність) появи в першому досвіді події V, а в другому, пов'язаному з ним події U, дорівнює:


(1.45)


де: H (V) - ентропія першої події; (U/V) - умовна ентропія.

Основний сенс умовної ентропії H (U/V) полягає в тому, що вона показує, на скільки збільшується ентропія другої події U, коли вже відома ентропія першої події V.


.4.3 Властивості ентропії складних повідомлень

При статистично незалежних повідомленнях U і V спільна ентропія рівна сумі ентропії повідомлень:

(U, V)=H (U) + H (V). (1.46)


Приклад: при двократному киданні кістки випадіння в першому досвіді 3 raquo ;, а в другому 5 - Є статистично незалежним:



При повній статистичної залежності повідомлень U і V спільна ентропія равнабезусловной ентропії одного з повідомлень:

(Uj/Vi)=0; H (U/V)=0; H (U, V)=H (U)=H (V). (1.47)


Наслідком перших двох властивостей є те, що умовна ентропія обмежена межами:


. (1.48)


Для спільної ентропії справедливе співвідношення (наслідок попередніх властивостей):


. (1.49)


Приклад: для двох подій X і Y наведені ймовірності спільних подій P (X, Y):



Визначити: ентропію повідомлень X і Y;

ентропію спільного події H (X, Y);

умовні ентропії H (X/Y), H (Y/X).

Рішення:

(X1)=0,1 + 0,25=0,35;

P (X2)=0,2; (X3)=0,3 + 0,15=0,45; (Y1)=0,1 + 0,2 + 0,3=0 , 6; (Y2)=0,25 + 0,15=0,4.


Ентропії окремих подій:



Ентропія спільного події:



Умовні ентропії:


H (Y/X)=H (X, Y) - H (X)=2,228 - 1,512=0,716 (біт);

H (X/Y)=H (X, Y) - H (Y)=2,228 - 0,971=1,257 (біт).


2. Базові логічні елементи

...


Назад | сторінка 9 з 18 | Наступна сторінка





Схожі реферати:

  • Реферат на тему: Випадкові події в елементарній теорії ймовірностей
  • Реферат на тему: Інформація та ентропія
  • Реферат на тему: Залежність семантики імені складного мовного події від структури події
  • Реферат на тему: Ентропія і антиентропія в теорії управління
  • Реферат на тему: Поняття ентропії та інформації