[ Оновлені теми · Нові повідомлення · Учасники · Правила форуму · Пошук · RSS ]
  • Page 1 of 1
  • 1
Форум » ПК » Відеокарти » Як правильно вибрати відеокарту?
Як правильно вибрати відеокарту?
dviДата: Четвер, 16.06.2011, 13.20.57 | Повідомлення # 1
Бог :-)
Група: Адміністратори
Повідомлення: 77Репутація: 32767  ±
Зауваження:  ±
Статус: Оффлайн


Відеокарта є основним елементом відеопідсистеми кожного більш-менш продуктивного комп'ютера (за винятком найдешевших офісних систем з інтегрованим у чипсет відео). ДО основних компонентів відеокарти відносяться: графічний процесор (з легкої руки NVIDIA, іменований GPU - Graphic Processing Unit), від можливостей якого багато в чому залежить продуктивність усієї відеопідсистеми, і відеопам'ять (що служить для зберігання різних елементів виведеного зображення, включаючи графічні елементи, текстури та інше).

В останні роки на ринку дискретних відеоадаптерів спостерігається двовладдя: конкуруючі один з одним американська NVIDIA з модельним рядом відеокарт Geforce і ATI - канадський підрозділ компанії AMD (модельний ряд Radeon) не залишили іншим виробникам місця "під комп'ютерним сонцем". Хто кращий з них? Відразу не Відповісти. Адже виходять усі нові й нові покоління відеокарт NVIDIA і ATI, і ситуація на ринку змінюється з калейдоскопічною швидкістю. Сьогодні, наприклад, у ніші високопродуктивних моделей вищого рівня (що користуються популярністю в основному в різних комп'ютерних виданнях), безумовно, лідирує NVIDIA з лінійкою Geforce 8800, однак нещодавно пальма першості належала ATI Radeon 1950 і т.д. Що стосується масових продуктів, то відеокарти одного покоління від різних виробників приблизно рівні по можливостях, так що вибір від того або іншого виробника визначається лише перевагами користувача. Як правило, у цей час відеокарти мають пам'ять 256 Мб і більш, чого цілком достатньо для комфортної роботи з будь-якими офісними додатками, а також для перегляду відео. Більший обсяг відеопам'яті потрібно лише в 3 D-Іграх, а також при роботі із професійними графічними пакетами. Фізичні прискорювачі (PPU - Physics Processing Unit) є вузькопеціалізованими, що доповнюють традиційну роботу CPU-GPU і звільняючі їх від обов'язку вираховувати фізичні ефекти в сучасних тривимірних комп'ютерних іграх. "Першою ластівкою" процесорів нового типу став PPU Physx, розроблений компанією Ageia в 2005 році. До теперішнього часу фізичні прискорювачі не одержали серйозного поширення. У першу чергу, тому, що з'явилися не вчасно - у пору експансії двоядерных процесорів, одне з ядер яких в ігрових додатках може досить ефективно вираховувати всю фізику. Таким чином, використання PPU сьогодні не має особливої потреби.



Найважливішими характеристиками будь-якого сучасного графічного процесора є:


a.його тактова частота - визначає максимальний обсяг роботи, який процесор може виконати в одиницю часу. Чим більше тактова частота GPU, тим вище продуктивність відеокарти;
b.кількість блоків шейдерів (піксельних або верхових процесорів, що виконують спеціальні програми) визначає можливості сучасних відеокарт з обробки графічних примітивів і, тим самим, продуктивність відеокарти. Піксельні шейдери більш актуальні, ніж верхові, тому найчастіше кількість перших в GPU перевищує кількість останніх. Втім, поділ на пікселі й верхові шейдери останнім часом, у зв'язку з виходом Directx 10, втрачає актуальність. Усі вони заміняються єдиними уніфікованими шейдерними блоками, здатними, залежно від конкретної ситуації, виконувати роль як піксельних, так і верхових шейдерів (а також і геометричних, які з'явилися в Directx 10);
c. кількість блоків текстування (TMU), що визначають текстурну продуктивність (швидкість вибору й накладання текстур), особливо при використанні трилінійної і анізотропної фільтрації. Найбільше значення блоки TMU мають у відносно старих іграх до шейдерної епохи, хоча й зараз вони не втратили актуальності;
d. кількість блоків растеризаціх (ROP) операції, що здійснюють, запис розрахованих відеокартою пікселів у буфері й операцій їх змішування (блендинга). Як і у випадку із блоками TMU, актуальність блоків ROP у період панування шейдерної архітектури трохи знизився. Усі наведені вище характеристики відеочипів, безумовно, дуже важливі, однак було б великою помилкою оцінювати сучасні GPU тільки числом різноманітних блоків і їх частотою. Кожне чергове покоління сучасних GPU використовує нову, часом, принципово нову архітектуру, у якій виконавчі блоки і їх взаємозв'язку дуже відрізняються від старих, тому порівнювати GPU по кількісним параметрам оправдано тільки в рамках одного покоління.

Для чого потрібна відеопам'ять?


Тому що пропускної здатності шини пам'яті в сучасних комп'ютерах катастрофічно не вистачає для забезпечення нормального функціонування високопродуктивних відеокарт, то більшість із них мають власну пам'ять, яка використовується для зберігання необхідних у процесі роботи даних: текстур, вершин, буферів і т.п. Виходячи із цього, можна зробити висновок - чим більше у відеокарти обсяг пам'яті, тим більше її продуктивність (як люблять затверджувати маркетологи). Але це не завжди вірно! Звичайно, ситуації, коли більший обсяг пам'яті приводить до росту продуктивності в іграх, існують, але вони досить рідкі й стосуються в основному новітніх, гранично вимогливих до системних ресурсів ігор, що працюють у найвищих дозволах. А більшість масових ігор обмежує апетити певним обсягом пам'яті, і перевищення цього порога не приведе до збільшення продуктивності. Набагато більш важливими параметрами відеопам'яті є її продуктивність, тобто робоча частота й ширина шини. Ширина шини пам'яті, поряд з тактовою частотою, є найважливішим параметром, що визначають продуктивність відеопам'яті. Більша ширина дозволяє передавати більшу кількість інформації в одиницю часу з відеопам'яті в GPU і назад, що, природно, забезпечує більшу продуктивність відеокарти (за інших рівних умов). У сучасних відеокартах ширина шини пам'яті становить:



a.для бюджетних відеокарт - 64 або 128 біт;
b.для карт середнього рівня - 128 або 256 біт;
c.для найдорожчих High-end відеокарт - від 256 до 512 біт.


На відеокарту встановлюється відеопам'ять різних типів. У масових відеокартах найпоширеніша відеопам'ять типу DDR2 (і її трохи поліпшений варіант GDDR3), пропускна здатність якої подвоєна в порівнянні з DDR. Найбільш продуктивні відеокарти комплектуються відеопам'ятю GDDR4, яка крім того, що працює у два рази швидше, чим GDDR3, відрізняється зниженою напругою харчування, і, отже, зменшеним енергоспоживанням.



Інтерфейси відеокарт




Стандартним інтерфейсом для підключення відеокарт сьогодні є шина Pci-express 1.1 (Pcie або PCI-E). Послідовна передача даних в режимі "крапка - крапка", застосовується в PCI-E, забезпечує можливість її масштабування (у специфікаціях описуються реалізації Pci-express 1x, 2x, 4x, 8x, 16x і 32x). Як правило, у якості відеоінтерфейсу використовується варіант PCI-E 16x, що забезпечує пропускну здатність 4 Гб/з у кожному напрямку, хоча зрідка зустрічаються реалізації PCI-E 8x (в основному в усічених SLI- або Crossfire- Розв'язках) і навіть PCI-E 4x (зокрема, так званий Pci-express Lite, встановлений на деяких материнських платах ECS). При цьому слід зазначити, що у всіх випадках, для встановлення відеокарт використовується єдиний слот PCI-E 16x, а в усічених версіях до нього підводить менша кількість ліній PCI-E.



PCI-E 16x




Існує кілька варіантів шини AGP, що відрізняються по пропускній здатності:

a.AGP 1 - 266 Мб/з;
b.AGP 2 - 533 Мб/з;
c.AGP 4 -1,07 Гб/з;
d.AGP 8 - 2,1 Гб/с.




Зрозуміло, що чим вище пропускна здатність графічного інтерфейсу, тим краще. Але в цей час різниця в пропускній здатності інтерфейсів AGP і PCI-E 1.1 (не кажучи про PCI-E 2.0) якщо й впливає на продуктивність відеосистеми, то не дуже, так що головна перевага Pci-express не в його високій продуктивності, а в можливості масштабування, що дозволяє встановлювати в комп'ютер дві, три й навіть чотири відеокарти. По стандарту AGP, споживаний струм відеосистеми може досягати до 6 А по напрузі 3,3 В, до 2 А по 5 У і до 1 А по напрузі 12 В. Нескладно підрахувати, що в підсумку ми маємо до 42 Вт потужності, що віддається. Більш сучасний стандарт Pci-express забезпечує набагато більшу потужність споживання: по шині споживання 3,3 В споживаний струм відеосистеми може досягати 3 А и до 5,5 А по 12 В, тобто всього до 76 Вт відеокарті, що віддається, потужності. Однак деяким сучасним відеокартам і цього мало, тому на них можуть встановлюватись один або два додаткові 6- контактних рознімання Pci-express, кожний з яких здатний забезпечити струм до 6 А по шині 12 В - усього до 72 або 144 Вт додаткової потужності. Таким чином, інтерфейс Pci-express 1.1 здатний забезпечити живлення відеокарт, що споживають до 220 Вт електроенергії.



[b]SLI[/b]




Nvidia_Geforce9800GX2

SLI (Scalable Link Interface - масштабований об'єднаний інтерфейс) - програмно-апаратна технологія NVIDIA, що забезпечує установку й спільну роботу двох відеокарт у режимі Multi-gpu Rendering. Навантаження між ними розподіляється динамічно, що дозволяє значно збільшити продуктивність відеосистеми й одержати високу якість відображення тривимірної графіки. Для нормальної роботи відеокарт в Sli- Режимі, необхідна материнська плата (поки тільки на чипсетах NVIDIA) із двома графічними слотами, що допускають установку відеокарт із інтерфейсом Pci-express (NVIDIA Geforce 6x00 і більш нових, причому обидві відеокарти повинні бути побудовані на однакових GPU). Для обміну інформацією між ними, найчастіше використовується спеціальний SLI- перевідник, хоча в окремих випадках можливий зв'язок через інтерфейс PCI-E. У багатьох випадках використання SLI дає збільшення продуктивності 3 D-Додатків, хоча радикальне збільшення спостерігається в основному в іграх, спеціально оптимізованих під цю технологію.



Для підключення зовнішніх відеообладнань на відеокартах можуть використовуватися аналогові інтерфейси VGA, RCA, S-video і цифрові - DVI і HDMI:



a.до останнього часу основним інтерфейсом для висновку зображення на ЕЛТ і Жк- Монітори був аналоговий Vga- Вихід ( 15-контактне рознімання D-sub);
b.аналогове рознімання S-video (або S-VHS) застосовується в основному для висновку комп'ютерного зображення на побутові телевізори й іншу домашню відеотехніку. Істотним недоліком цього інтерфейсу є те, що в сучасних відеокартах можуть використовуватися кілька варіантів рознімання S-video, з різною кількістю контактів і не завжди сумісних один з одним;
c.сучасні Жк- Монітори, проектори, телевізори й плазмові панелі можуть підключатися до відеокарт через цифровий відеоінтерфейс DVI (Digital Visual Interface). За рахунок того, що відеосигнал передається прямо з відеокарти без подвійного цифро/аналогового перетворення, DVI забезпечує неспотворену передачу зображення, особливо помітну з високими параметрами. Інтерфейс DVI може бути як винятково цифровий DVI-D, так і комбінований DVI-I, у якому поряд із цифровими лініями є й аналогові (VGA). Монітор з аналоговим Vga- Розніманням підключається до DVI-I через спеціальний перехідник;
d.різновидом DVI є інтерфейс Dual-link DVI, що забезпечує підтримку високого дозволу (вище 1920 х 1200) по цифровому виході DVI. Фізично Dual-link DVI є об'єднанням двох окремих каналів DVI в одному кабелі, що подвоює його пропускну здатність;
e.мультимедійний інтерфейс HDMI (High Definition Multimedia Interface) є присутнім у деяких нових відеокартах, телевізорах і інших домашніх мультимедійних обладнаннях. Головна особливість HDMI - можливість передавати по одному кабелю на відстань до 10 м поряд із цифровим відеосигналом ще й аудио без втрати якості. Завдяки цьому кількість сполучних проводів (справжній біч сучасних мультимедійних систем) суттєво зменшується.


Як визначити продуктивність відеокарти?




Можна скористатися одним з тестових пакетів (це і 3Dmark), однак більшість із них визначає продуктивність відеокарти в абстрактних "папугах". Звичайно, багато популярних ігор (Quake, Unreal Tournament, Serious Sam і деякі інші) мають можливість виміру кількості кадрів, однак цілком ймовірно, що саме вони можуть не входити в коло ваших інтересів. У такому випадку варто звернути увагу на утиліту Fraps, яка здатна не тільки підраховувати частоту кадрів у будь-якій запущеній грі, але й показати цю інформацію в одному з кутів вашого екрана.
valik87878Дата: Неділя, 19.02.2017, 11.38.05 | Повідомлення # 2
Група: Користувачі
Повідомлення: 4Репутація: 0  ±
Зауваження:  ±
Статус: Оффлайн
Айфоны стали популярными за счет удобной оболочки, четкого контроля качества на производстве, отменной производительности и отличным фотографическим возможностям. Если вы любите запечатлеть каждый момент своей жизни на камеру, то рекомендуем обратить внимание на модель 6+ со встроенным накопителем на 64 или 128 Гб. Дело в том, что его камера обладает продвинутой системой оптической стабилизации, устраняющей эффект трясущихся рук. В результате будут получаться более четкие снимки, вне зависимости от тряски, формируемой оператором. А большой объем встроенной памяти пригодится для хранения фото и прочих файлов, что очень важно, ведь медиафайлы получаются достаточно большими. Еще одно преимущество в том, что аккумулятор данной модификации обладает увеличенной емкостью, что намного продлевает автономность. Девайс продержится до 1,5 суток при средних нагрузках. Айфон 6+ наилучшим образом подходит для фильмов и современных игр, что связано с увеличенной диагональю дисплея и его разрешением. Такое решение способно заменить собой планшет и оно всегда будет поблизости.
http://www.moyo.ua/telecommunication/smart/apple/
Форум » ПК » Відеокарти » Як правильно вибрати відеокарту?
  • Page 1 of 1
  • 1
Search:

close