Теми рефератів
> Реферати > Курсові роботи > Звіти з практики > Курсові проекти > Питання та відповіді > Ессе > Доклади > Учбові матеріали > Контрольні роботи > Методички > Лекції > Твори > Підручники > Статті Контакти
Реферати, твори, дипломи, практика » Курсовые проекты » Принципи організації паралелізму виконання машинних команд в процесорах

Реферат Принципи організації паралелізму виконання машинних команд в процесорах





ли ніяких інших негативних факторів немає. Слід відзначити, що розпаралелювання веде до певних витратам, яких немає при послідовному виконанні програми. Як приклад таких витрат можна згадати додаткові операції, пов'язані з розподілом програм з процесорам, обмін інформацією між процесорами [4].

В 

7.3 Закон Густафсона


Вирішуючи на обчислювальної системи з 1024 процесорів три великих завдання, для яких частка послідовного коду f лежала в межах від 0,4 до 0,8%, Джон Густафсон з NASA Ames Research отримав значення прискорення в порівнянні з однопроцесорним варіантом, рівні відповідно 1021,1020 і 1016. Відповідно до закону Амдала для даного числа процесорів і діапазону f, прискорення не повинно було перевищити величини порядку 201. Намагаючись пояснити це явище, Густафсон дійшов висновку, що причина криється у вихідній передумові, що лежить в основі закону Амдала: збільшення числа процесорів не супроводжується збільшенням обсягу розв'язуваної задачі. Реальне ж поведінку користувачів істотно відрізняється від такого подання. Зазвичай, одержуючи у своє розпорядження більш потужну систему, користувач не прагне скоротити час обчислень, а, зберігаючи його практично незмінним, намагається пропорційно потужності НД збільшити обсяг розв'язуваної задачі. І тут виявляється, що нарощування загального обсягу програми стосується головним чином распараллелівать частини програми. Це веде до скорочення значення f. Прикладом може служити рішення диференціального рівняння в приватних похідних. Якщо частка послідовного коду становить 10% для 1000 вузлових точок, то для 100 000 точок частка послідовного коду знизиться до 0,1%. Сказане ілюструє малюнок 7.3, який відображає той факт, що, залишаючись практично незмінною, послідовна частину в загальному обсязі збільшеною програми має вже менший питому вагу.

Було відзначено, що в першому наближенні обсяг роботи, яка може бути проведена паралельно, зростає лінійно з зростанням числа процесорів в системі. Для того щоб оцінити можливість прискорення обчислень, коли обсяг останніх збільшується із зростанням кількості процесорів в системі (при сталості загального часу обчислень), Густафсон рекомендує використовувати вираз, запропоноване Е. Барсісом (Є. Barsis):

В 

Даний вираз відомо як закон масштабованого прискорення або закон Густафсона (іноді його називають також законом Густафсона-Барсіса). На закінчення відзначимо, що закон Густафсона НЕ суперечить закону Амдала. Різниця полягає лише у формі утилізації додаткової потужності НД, що виникає при збільшенні кількості процесорів [4].

В 

висновок

Розвиток обчислювальної техніки характеризується тим, що на кожному етапі нових розробок вимоги до продуктивності значно перевищують можливості елементної бази.

Це обумовлено завданнями складних систем управління в реальному часі, централізованим рішенням завдань у мережах, імітаційним моделюванням складних процесів (наприклад, в ядерній фізиці), оперативним плануванням і управлінням. Такі завдання вимагають концентрації обчислювальних потужностей, постійно підтримуючи високу актуальність проблеми створення супер-ЕОМ.

Домагатися підвищення продуктивності комп'ютерів тільки за рахунок збільшення тактової частоти стає все складніше, тому що з'являється проблема відведення тепла. Тому розробники звернули свою увагу на паралелізм як на засіб прискорення обчислень. Паралелізм може вводитися на різних рівнях, як на самих нижніх, де елементи дуже жорстко пов'язані один з одним, так і на верхніх, де зв'язки вельми слабкі. p> Паралелізм на рівні команд має місце, коли обробка декількох команд або виконання різних етапів однієї і тієї ж команди може перекриватися в часі. Розробники обчислювальної техніки вдаються до методів, відомим під загальною назвою В«Суміщення операційВ», при якому апаратура ВМ у будь-який момент часу виконує одночасно більше однієї операції. p> У роботі ми розглянули принципи організації паралелізму на рівні команд, ознайомилися з роботою конвеєра, суперскалярного конвеєра, матричного процесора, переконалися в тому, що паралелізм - ефективний спосіб підвищення продуктивності при незмінній тактовій частоті процесора.

список літератури

1. Корнєєв В.В. Обчислювальні системи.-М.: Геліос APB, 2004.-512с., Ил. - С. 34-46

2. Таненбаум, Е. Архітектура комп'ютера/Пер. з англ. - 4-е вид. Підручник для вузов.-СПб.: Пітер, 2003 698 с. : Іл. p> 3. Барський А.Б. Паралельні інформаційні технології: Навчальний посібник/А.Б. Барскій.-М.: Інтернет-університет інформаційних технологій; БИНОМ. Лабораторія знань, 2007.-503 с.: іл., таб. - (серія В«Основи інформаційних технологійВ») - с.20-28, с.56-58.

4. Цількер, Б. Я. Організація ЕОМ і систем: Підручник для вузов.-СПб. Ви: Питер, 2007.-668с.: Іл-з. 481-492

5. Купріянов М.С., Петров Г.А., Пузанков Д.В. Процесор Pentium: Архітектура та програмування./ГЕТУ-СПб., 1995.-277с-с. 11-17...


Назад | сторінка 22 з 23 | Наступна сторінка





Схожі реферати:

  • Реферат на тему: Кутове прискорення Закон Авогадро. Закон збереження енергії
  • Реферат на тему: Архітектура сучасних процесорів
  • Реферат на тему: Розробка конфігурації високопродуктивного комп'ютера на базі сучасної м ...
  • Реферат на тему: Внутрішня архітектура сучасних процесорів
  • Реферат на тему: Немає нічого більш складного і тому більш цінного, ніж мати можливість прий ...