Теми рефератів
> Реферати > Курсові роботи > Звіти з практики > Курсові проекти > Питання та відповіді > Ессе > Доклади > Учбові матеріали > Контрольні роботи > Методички > Лекції > Твори > Підручники > Статті Контакти
Реферати, твори, дипломи, практика » Новые рефераты » Основи інформації та передачі сигналів. Базові логічні елементи

Реферат Основи інформації та передачі сигналів. Базові логічні елементи





">? P (U1, V3) P (U2, V3) P (U3, V3)? ,


де: P (U2, V1) - імовірність того, що в першому досвіді - приїде трамвай 1-го маршруту, а в другому досвіді - трамвай 2-го маршруту.


Можливість спільного появи двох подій дорівнює добутку умовної ймовірності на безумовну ймовірність події у першому досвіді:

P (U2, V1)=P (V1) * P (U2/V1). (1.43)


Тому матрицю ймовірностей спільного появи двох подій можна представити в такому вигляді:


? P (V1) * P (U1/V1) P (V1) * P (U2/V1) P (V1) * P (U3/V1)? (U, V) =? P (V2) * P (U1/V2) P (V2) * P (U2/V2) P (V2) * P (U3/V2)? (1.44)

? P (V3) * P (U1/V3) P (V3) * P (U2/V3) P (V3) * P (U3/V3)?


З цього випливає, що сума всіх елементів матриці (1.44) дорівнює 1.

Ентропія (невизначеність) появи в першому досвіді події V, а в другому, пов'язаному з ним події U, дорівнює:


(1.45)


де: H (V) - ентропія першої події; (U / V) - умовна ентропія.

Основний сенс умовної ентропії H (U / V) полягає в тому, що вона показує, на скільки збільшується ентропія другої події U, коли вже відома ентропія першої події V.


.4.3 Властивості ентропії складних повідомлень

При статистично незалежних повідомленнях U і V спільна ентропія дорівнює сумі ентропії повідомлень:

(U, V)=H (U) + H (V). (1.46)


Приклад: при двократному киданні кістки випадіння в першому досвіді «3», а в другому «5»- Є статистично незалежним:



При повній статистичної залежності повідомлень U і V спільна ентропія равнабезусловной ентропії одного з повідомлень:

(Uj / Vi)=0; H (U / V)=0; H (U, V)=H (U)=H (V). (1.47)


Наслідком перших двох властивостей є те, що умовна ентропія обмежена межами:


. (1.48)


Для спільної ентропії справедливе співвідношення (наслідок попередніх властивостей):


. (1.49)


Приклад: для двох подій X і Y наведені ймовірності спільних подій P (X, Y):



Визначити: ентропію повідомлень X і Y;

ентропію спільного події H (X, Y);

умовні ентропії H (X / Y), H (Y / X).

Рішення:

(X1)=0,1 + 0,25=0,35;

P (X2)=0,2; (X3)=0,3 + 0,15=0,45; (Y1)=0,1 + 0,2 + 0,3=0 , 6; (Y2)=0,25 + 0,15=0,4.


Ентропії окремих подій:



Ентропія спільного події:



Умовні ентропії:


H (Y / X)=H (X, Y) - H (X)=2,228 - 1,512=0,716 (біт);

H (X / Y)=H (X, Y) - H (Y)=2,228 - 0,971=1,257 (біт).


2. Базові логічні елементи


.1 Електронний ключ на біполярному транзисторі


Основним елементом обчислювальних машин є електронний ключ, що має два стійких стани: «включений»- «Вимкнений»; або «високий рівень»- «Низький рівень». Домовимося називати «низький рівень»- Логічним нулем, а «високий рівень»- Логічною одиницею.

Електронний ключ може бути реалізований на активних елементах: біполярних або польових транзисторах, на тунельних діодах, на ...


Назад | сторінка 13 з 25 | Наступна сторінка





Схожі реферати:

  • Реферат на тему: Інформація та ентропія
  • Реферат на тему: Залежність семантики імені складного мовного події від структури події
  • Реферат на тему: Ентропія і антиентропія в теорії управління
  • Реферат на тему: Поняття ентропії та інформації
  • Реферат на тему: Основи термодинаміки. Принцип зростання ентропії