AMD против NVIDIA

Логотип компании
AMD против NVIDIA
Битвы титанов уходят в прошлое, но история остается, как остаются и привязанности к бренду.
AMD против NVIDIA. Рис. 1


Когда я впервые столкнулся с видеокартой ATI EGA Wonder, то даже не подозревал, что продукция этой фирмы будет сопровождать меня (то бишь мои многочисленные ПК) целых два десятилетия. Трехмерные игры меня не интересовали, а в двумерной графике ATI слыла лучшей и запросто могла потягаться с Matrox. Мне, плотно висевшему во всяких UNIX-Linux, CAD’ах и базах данных, качественное 2D было просто необходимо. Начав с ATI Mach 64, перебрался на ATI Rage128 – к тому времени я уже познакомился с первыми трехмерными играми, как сейчас, помню, то были “Hexen” и “Quake”. Впрочем, больше всего любил “Heroes of Might & Magic” и “StarCraft”.  
AMD против NVIDIA. Рис. 2
 
Однако всплеск интереса к 3D-играм прошел мимо меня, хотя в моем компьютере прочно обосновалась ATI Radeon All-In-Wonder. Это чудо было оборудовано ТВ-тюнером и входами/выходами видео, радио и 3D-ускорителем. “StarCraft II: BroodWar” и “Diablo II: Lord of Destruction” не требовали трехмерной графики, а нужда в высокой четкости 2D никуда не делась. 
AMD против NVIDIA. Рис. 3
Прекрасная игрушка радовала меня до 2003 года, пока я не сменил ее на HIS Excalibur Radeon 9600 Pro: то была сильная видеокарта, с хорошо отлаженными драйверами и высоким FPS в играх того времени. Отсутствие поддержки Shader Model 3.0, столь распиаренной среди геймеров, абсолютно не волновало – в конце концов, HDR-освещение и некоторые мелкие детали графики не заслуживали того, чтобы ради них изменять любимому бренду. 
AMD против NVIDIA. Рис. 4
 
Впрочем, уже через два года я сменил ее на ATI Radeon X850 XT Platinum: уж очень она радовала и мощью, и качественной обработкой видео, и потенциалом для разгона. Именно на этой видяхе я и познакомился с “Grand Theft Auto: San Andreas” и “Need for Speed: Most Wanted”. Правда, стоит признать, что некоторые игры с этой мощной видеоплатой не вязались (например, та же “Oblivion”). Но, поскольку в нашей тестовой лаборатории всегда имелось несколько стендов, оснащенных последними моделями NVIDIA, проблема решалась запросто: или поиграть на взятой напрокат видеокарте дома, или на месте познакомиться с игрой и понять, интересна она мне или нет. А всякие там MMORPG (“Lineage II” и “World of Warcraft”), пленявшие меня несколько лет, гораздо лучше шли на Radeon, чем на GeForce. 
AMD против NVIDIA. Рис. 5
 
Настоящим ударом для меня стал переход на новый интерфейс PCI Express: платформа с мощным процессором Intel Extreme Edition и 4 Гбайт ОЗУ совершенно устраивала меня в плане производительности, и менять ее ради видеокарты не было ни малейшего желания. Но снова выручила любимая компания: выпущенная ею Radeon X1300 Pro c "морально устаревшим" интерфейсом AGP подарила моему ПК вторую жизнь, и тот еще пару лет верой и правдой служил мне в качестве основного, а потом уже как резервный. Кстати, жив курилка и по сей день, работает в этой же конфигурации. 
AMD против NVIDIA. Рис. 6
 
Позже я все-таки перешел на новую платформу и обзавелся очередным видеоускорителем. На этот раз им стал Radeon HD 3870 X2: два графических ядра, поддержка DirectX 10.1 и UVD (Avivo HD) – по тем временам самая мощная видеокарта, обогнавшая даже популярную серию NVIDIA GeForce 8800, но с более скромной ценой. Забавно, но именно она (а точнее, они, поскольку я приобрел ей пару и заставил работать в режиме CrossFire) до сих пор пашет в моем рабочем компьютере, прекрасно отрабатывая все запросы по части 3D-графики. И в ближайшее время не вижу смысла менять эту связку.
AMD против NVIDIA. Рис. 7
Теперь же, после поглощения ATI компанией AMD (которую я откровенно и много лет недолюбливаю), как-то не хочется делать новый выбор. В конце концов, ничто же не мешает моему сердцу продолжать наслаждаться более чем 20-летним общением с видеокартами Radeon… даже передав эстафету другому производителю.
AMD против NVIDIA. Рис. 8

История видеоадаптеров GeForce – фактически история моих домашних компьютеров. Сменяли друг друга системные платы, процессоры, память, жесткие диски уступили место твердотельному накопителю, а видеокарты зеленой марки так и остались за главного. Хотя на эксперименты вроде AMD Radeon R9800 я иногда все же решался.
Не испытывая какой-то мистической привязанности к видеокартам калифорнийского разработчика, тем не менее признаюсь, что нравились они мне всегда. Любому журналисту, пишущему о девайсах, частенько приходится разбирать их с целью понять, как они устроены. Так вот мне безоговорочно импонировало качество эталонных видеокарт GeForce: добротная сборка, строгий черный текстолит, пластиковый кожух, турбина, которая, в отличие от конкурента, в режиме 3D не уподобляется фену. Чувство, которое испытываешь, заглядывая в святая святых видеокарты, поверьте, особенное.
О первой моей видяхе NVIDIA, коей стала одна из моделей поколения GeForce4 со скромным вентилятором, сказать особенно нечего. Сменила ее карта поколения GeForce FX, появившегося в один год с Doom 3 (его тогда прошли, наверное, все геймеры). 
AMD против NVIDIA. Рис. 9
Архитектура NVIDIA была оптимизирована для отображения теней, хорошо проявив себя в игре. Другое дело, что на визуальные ощущения это не влияло – третий Doom оказался плохим шутером, разделив моих коллег и друзей на два лагеря (одним он нравился, другим нет). Сейчас об этом вспоминаешь не иначе как с улыбкой.
Затем настала очередь GeForce 7900 GT. Помню, у меня оказалась модель с оригинальным кулером: он хоть и охлаждал не столь хорошо, зато был весьма тихим в нагрузке. Карточка показала себя шустрой, стабильно выдавая 25-30 кадров/с (без сглаживания) в разрешении 1280×1024 точки. С ней я часами бродил по Тамриэлю в “The Elder Scrolls IV: Oblivion” и с остервенением отстреливал монстров в “Alien Shooter: Vengeance”. 
AMD против NVIDIA. Рис. 10
 
Но больше других мне запомнилась GeForce 8800 GTX. В свое время это был самый производительный графический ускоритель. Причем оставался им как минимум пару лет, что по нынешним меркам кажется невероятным. Тем не менее по части мощности и новых технологий эта серия видеокарт была уникальной. Унифицированная шейдерная архитектура, поддержка DirectX 10 и Shader Model 4.0 – что и говорить, GeForce 8800 был королем графики. Видеокарты производились под строгим контролем NVIDIA. Правда, были габаритными и обладали высоким энергопотреблением, но все эти недостатки легко компенсировались качеством картинки в играх и весьма тихой системой охлаждения. Конкурента в лице Radeon HD 2900 компания AMD выпустила лишь спустя полгода, да и то он оказался гораздо медленнее GeForce 8800, а в режиме 3D шумел сильнее (однако стоил дешевле).
Смысла менять видеокарту долгое время не было – почти все игры GeForce 8800 GTX тянула на максимальных настройках графики.
AMD против NVIDIA. Рис. 11
Лишь спустя два с половиной года я решился наконец на GeForce GTX 260.Что называется, приспичило. К тому моменту AMD уже научилась выпускать видеокарты с очень хорошим соотношением цена/производительность. Поначалу это была серия Radeon HD 3000, потом Radeon HD 4000. И все же на сторону зеленых видеокарт склонили поддержка PhysX и уровень шума системы охлаждения, особенно под нагрузкой. NVIDIA каждый раз удавалось делать более удачные в этом отношении графические адаптеры. 
AMD против NVIDIA. Рис. 12
 
Потом GeForce GTX 260 уступила место GeForce GTX 275 производства Palit. С оригинальным кулером (из двух вентиляторов), она хороша была тем, что шумела меньше референса, а стоила при этом дешевле. 
Но и ее в свою очередь сменила GeForce GTX 570, которая работает в моем домашнем десктопе до сих пор. Вам хорошо известно, что иногда в качестве дружеского шага вендоры дарят журналистам свои девайсы. Так получилось и с 570-й. Карточка была референсной, то есть с кулером турбинного типа. Он меня устраивал, но со временем захотелось того же, но потише и похолоднее. 
AMD против NVIDIA. Рис. 13
В результате я решил установить на нее кулер Zalman VF3000F, специально рассчитанный под референсный дизайн GeForce GTX 570. Занимая чуть больше пространства (в толщину), чем заводская система охлаждения, и частично выбрасывая нагретый воздух внутрь корпуса, он тем не менее позволял сбросить 10 градусов Цельсия в простое и больше 15 градусов в нагрузке, да и в режиме 3D вел себя лучше. Как поклоннику тихих систем именно это мне и требовалось.  
AMD против NVIDIA. Рис. 14
 
Качество изготовления, оптимальные характеристики по части шума и охлаждения, поддержка PhysX – этим всегда выделялись видеокарты NVIDIA. И пускай красивую картинку в играх и качественное аппаратное сглаживание при проигрывании Full HD-видео гарантируют и «Радеоны», пользователю со стажем, с глубокими привязанностями, сложно сменить свои взгляды. Карты GeForce всегда будут для меня единственным выбором, потому что они крутые и потому что являются маленькой частью моей компьютерной жизни.

Опубликовано 15.03.2013

Похожие статьи