Теми рефератів
> Реферати > Курсові роботи > Звіти з практики > Курсові проекти > Питання та відповіді > Ессе > Доклади > Учбові матеріали > Контрольні роботи > Методички > Лекції > Твори > Підручники > Статті Контакти
Реферати, твори, дипломи, практика » Курсовые проекты » Тестування відеокарт

Реферат Тестування відеокарт





історії відеокарт не змогла вписати Matrox. Вони не пішли принципом випуску нових адаптерів кожні 6 місяців, а G400 програвав GeForce через погану продуктивності в OpenGL, а також горезвісного T amp; L. Так, G400 став затребуваним лише тими, кому потрібно було використовувати для роботи або гри 2 монітора. У Matrox просто-напросто скінчилися ідеї.

Новітня історія

рік ознаменував новий виток розвитку комп'ютерної графіки. NVIDIA випустила свій новий чіп NV20, який став основою GeForce3. Продуктивність не занадто далеко пішла від GeForce2, проте вийшов він в один час з DirectX 8.0, стандартизованих піксельні і вершинні шейдери 1.0. По факту, шейдерні блоки були присутні і в GeForce2, проте їм потрібна була підтримка від графічних бібліотек в самих іграх, інакше вони просто не працювали. Але ігри, які отримали підтримку DirectX 8.0, показували чудову картинку.


Рис. 20. NVIDIA GeForce2


Рис. 21. GeForce3 з чіпом NV20


Відповідь, що послідував від ATI, виявився дуже потужним. ATI не збиралися продовжувати займати друге місце і спробували обігнати головного конкурента. Випущений компанією R200 володів підтримкою шейдеров версії 1.4, які були у складі DirectX 8.1. Крім іншого, Radeon додав апаратну тесселяцию, яка дала чіпу можливість самостійно робити моделі об'єктів більш складними.


Рис. 22. Удар ATI по ??NVIDIA: відеокарта ATI R200


Ну а відповідь NVIDIA здивував усіх. Його просто не було. Проте в компанії міркували дуже навіть хитро і розумно: адже розробники ігор не будуть вкладати гроші для підтримки технологій, що належать тільки ATI. Виходить, що NVIDIA не намагалася наздогнати флагмана від ATI і наступним адаптером у неї став NV25 (GeForce4Ti), який не підтримує тесселяцию і версію шейдеров, використовувану товаром ATI. Задум NVIDIA можна сказати виправдався: розробники ігор не дуже хотіли впроваджувати в свої ігри підтримку нових версій шейдерів і TruForm. Незважаючи ні на що, NVIDIA не займала чітко друге місце - компанії ділили лідерство, а NVIDIA готувала потужні відповіді для ATI (нині куплена компанією AMD).

Так і почалася новітня історія відеокарт. З 2001 року історія відеокарт пишеться двома компаніями: ATI і NVIDIA. За декаду з'являлися і зникали нові покоління чіпів обох компаній, а початкові геометричні та текстурні блоки перетворилися на тисячі вільно програмованих ядер, а компанія-лідер в цій гонці постійно змінюється.

Завдяки цій боротьбі, компанії розробляють нові рішення, технології, встановлюючи все нові рекорди продуктивності, а також постійно змінюються ціни. Прикро, звичайно, що в цій боротьбі третій зайвий. І не факт, що він взагалі зможе коли-небудь з'явитися.


1.2 Пристрій відеокарти


Рис. 23. Пристрій відеокарти

1. TV-вихід

2. Роз'єм DVI (можна перетворити в аналоговий сигнал)

. Вихід VGA

. Роз'єм живлення вентилятора охолодження

. Графічний процесор з інтегрованою DAC і теплоотводом/вентилятором

. Роз'єм AGP 8х

. Модулі пам'яті DDR

. Мікросхема регулювання напруги


Графічний процесор


Рис. 24. Графічний процесор


Графічний процесор (Graphics processing unit - графічне процесорний пристрій) - займається розрахунками виведеного зображення, звільняючи від цього обов'язку центральний процесор, проводить розрахунки для обробки команд тривимірної графіки. Є основою графічної плати, саме від нього залежать швидкодія і можливості всього пристрою. Сучасні графічні процесори по складності мало чим поступаються центральному процесору комп'ютера, і частенько перевершують його як по числу транзисторів, так і з обчислювальної потужності, завдяки великому числу універсальних обчислювальних блоків. Однак, архітектура GPU минулого покоління зазвичай припускає наявність декількох блоків обробки інформації, а саме: блок обробки 2D-графіки, блок обробки 3D-графіки, у свою чергу, зазвичай розділяється на геометричне ядро ??(плюс кеш вершин) і блок растеризації (плюс кеш текстур ) та ін.

Відеопам'ять


Рис. 25. Відеопам'ять


Відеопам'ять - виконує роль кадрового буфера, в якому зберігається зображення, що генерується і постійно змінюване графічним процесором і виводиться на екран монітора (чи декількох моніторів). У відеопам'яті зберігаються також проміжні невидимі на екрані елементи зображення та інші дані. Відеопам'ять буває декількох типів, що ...


Назад | сторінка 6 з 17 | Наступна сторінка





Схожі реферати:

  • Реферат на тему: Тестування відеоадаптерів фірм Nvidia GeForce та AMD Radeon
  • Реферат на тему: Історія виникнення комп'ютерної графіки
  • Реферат на тему: Історія Виникнення комп'ютерної графіки
  • Реферат на тему: Розробка електричної схеми макета для досліджень роботи відеопам'яті
  • Реферат на тему: Мутації і нові гени. Чи можна стверджувати, що вони служать матеріалом Мак ...