09 января 2014Технологии
Обновлено 09.05.2015

(upd) Трудности выбора: nVidia vs AMD

https://soundcloud.com/diego_barrientos/sets/hour-reggae
https://soundcloud.com/diego_barrientos/sets/hour-reggae

На данный текст меня натолкнули комментарии в недавно написанной мною статье - Mantle API, консоли и Nvidia. Выражаю свою благодарность всем тем, кто оставил их. Но не о статье сейчас пойдет речь. Комментарии пользователей и мое желание ответить им в рамках доступной информации, помогли мне сделать некий вывод того, что же сейчас происходит на рынке графических решений.

“Но кому, черт возьми, нужны твои выводы?” - спросите Вы, дорогие читатели. Отвечу: Уже не раз на сайте вижу комментарии или вопли, в которых люди задают вопрос о том, видеокарту какого производителя выбрать - nVidia или AMD?

Так вот, я считаю, что таким людям стоит прочитать данную статью. А для всех остальных - есть текста и получше на сайте. С другой стороны, для общего развития прочитать тоже не плохо.

(upd) Трудности выбора: nVidia vs AMD - фото 1

Мир мифов и легенд.

В народе бытует мнение, мол драйвера для Radeon это не набор софта, а мистический ритуал примирения железки с OC.

Увы, но миф развеян. Уже не знаю с какой версии драйверов дела пошли в гору, но сейчас все хорошо. Даже больше скажу. Есть тест - "Противостояние. AMD Radeon HD 7970 vs NVIDIA GeForce GTX 680", суть которого заключается не в том, чтобы сравнить производительность видеокарт как таковых, а в том, как эта производительность улучшилась со времени выхода видеокарт и через некоторое время после выпуска нескольких версии драйверов.

Для тех кому не хочется тратить лишний трафик переходом по ссылке, озвучу заключение полевых испытаний:

Выводы очевидны. Несмотря на полгода, прошедшие с момента выхода видеокарты GeForce GTX 680, команда «А» (NVIDIA) не смогла заметно улучшить свои позиции. Изначально в качестве возможной причины предполагался меньший шаг GPU Boost у видеокарты, но это оказалось не так. Во время тестов частота GPU варьировалась в диапазоне 1084-1110 МГц, что укладывается в штатные характеристики. Таким образом, заметного роста производительности для NVIDIA GeForce GTX 680 при замене драйверов с версии 301.10 на 306.хх вы не получите.
В то же время команда «Б» (AMD) проделала большую работу по оптимизации и адаптации своей версии драйверов к существующим играм. Ситуация, когда вендор «жульничает», сейчас не рассматривается, поскольку сравнение визуального качества картинки – тема отдельного разговора.

На встречу игрокам.

Раньше, Я всегда считал, что видеокарты nVidia лучше чем решения от AMD, и это отчасти правда. Почему у меня было такое мнение? Узнаете ниже. А теперь немного истории.

Вооружившись машиной времени под названием Google, откопал в архивах всемирной паутины интересные записи:

История nVidia в видеокартах: 13 лет успеха.

25 лет истории ATI в картинках.

Это на случай, если у Вас появится свободное время, а заняться будет нечем. А для тех кто большие объемы теста не любит, озвучу успех nVidia вкратце.

В 1999 году nVidia выпустила в свет свое новое детище - GeForce 256. С архитектурой данной карты, компания сделал огромный технологический шаг вперед. Наличие аппаратного ускорения геометрических преобразований и света сделает GeForce чипом нового поколения, равных которому пока нет. У ATi на этот момент была линейка видеокарт Rage, которая не была столь производительна и не пользовалась популярностью, ввиду технических спецификации и проблем с драйверами.

В 2000 году видеокарты АTi стали продавать под новым названием - Radeon, но мощности это им не добавляло. Пользователи, конечно, новинку оценили и карты заняли свою нишу, но технологии от nVidia игрокам пришлась больше по вкусу.

Начиная с этого времени, nVidia и ATI потихоньку стали отсеивать конкурентов с рынка игровых видеокарт. Почему игровых? Потому что графические ядер, все равно продает больше Intel как сейчас, так и в то время. Но сути это не меняет. Из всей истории, Я считаю нужно отдать должное компании “зеленых”, так как благодаря их идеи выпускать игровые графические платы для ПК, положили начало расцвету игровой индустрии, а так же дало уверенный толчок в будущее.

Но то история, а что же сейчас предлагают компании игрокам?

(upd) Трудности выбора: nVidia vs AMD - фото 2

Технология NVIDIA® 3D VisionTM Surround позволяет задействовать три монитора в режиме Full HD 3D, обеспечивая невероятно захватывающий игровой процесс. Теперь благодаря графическим процессорам серии GeForce GTX 400 и 200 вы можете расширить обзор периферии в 3D играх, что позволит быстрее замечать врагов, получать полное представление о событиях в стратегических играх и еще быстрее вести машину в гонках.

и

Radeon R9 290X

(upd) Трудности выбора: nVidia vs AMD - фото 3

О сравнение:

Было бы глупо делать сравнение цен двух образцов опираясь только на спецификации. Конечному потребителю(игроку) важнее, как эти карты отрабатывают свои деньги в играх. По этому, я приведу ссылку на тест, в котором обоих конкурентов испытают в современных играх и специальных приложениях, типа 3DMark.

(цены на момент написания статьи)

- ASUS GeForce GTX TITAN -

средняя цена: 35 тысяч рублей - yandex market

Технические характеристики:

- Частота графического процессора: 837 МГц;

- Объем видеопамяти: 6144 Мб;

- Тип видеопамяти: GDDR5;

- Частота видеопамяти: 6008 МГц;

- Разрядность шины видеопамяти: 384 бит;

- Частота RAMDAC: 400 МГц;

- Число универсальных процессоров: 2688;

- Версия шейдеров: 5.0;

- Число текстурных блоков: 224;

- Число блоков растеризации: 48;

- Максимальная степень анизотропной фильтрации: 16x;

- Максимальная степень FSAA: 32x;

- Поддержка стандартов: DirectX 11.1, OpenGL 4.3


- ASUS Radeon R9 290X -

**(upd)**средняя цена: 20 тысяч рублей - yandex market

Технические характеристики:

- Частота графического процессора: 947 МГц;

- Объем видеопамяти: 4096 Мб;

- Тип видеопамяти: GDDR5;

- Частота видеопамяти: 5000 МГц;

- Разрядность шины видеопамяти: 512 бит;

- Частота RAMDAC: 400 МГц;

- Число универсальных процессоров: 2560;

- Версия шейдеров: 5.0;

- Число текстурных блоков: 160;

- Число блоков растеризации: 64;

- Максимальная степень анизотропной фильтрации: 16x;

- Максимальная степень FSAA: 24x;

- Поддержка стандартов: DirectX 11.2, OpenGL 4.3

Обе видеокарты где-то хуже, где-то лучше друг друга, это видно и невооруженным глазом. Но чего они стоят в играх?

Вот результаты полевых испытаний: Кто быстрее: Radeon R9 290X или GeForce GTX Titan?

Вывод:

Возможно, Radeon R9 290X не способен разнести в пух и прах своего конкурента, но на стороне AMD есть ряд преимуществ. Во-первых, это процессор Hawaii, работающий на частоте всего 800 МГц. Если разгонный потенциал флагмана Volcanic Islands будет соизмерим с возможностями предшественников, это придаст Radeon R9 290X некоторой “уверенности” на фоне соперников. Во-вторых, интерфейс Mantle, который сулит дополнительный рост быстродействия в играх. Правда, насколько весомым окажется это преимущество, мы узнаем только в декабре.

(upd: предыдущий тест, который я привел, был не между GeForce Titan и R9 290X. Вместо Titan была GeForce GTX 780 Ti, это железно “разогнанная” версия, которая была сконструирована в конкуренты флагману AMD. Она действительно выигрывает в быстродействие, и цена ее 27 тыс. руб. Я так же подкорректировал цену R9 290x - так предыдущая была, цена специально BF4 версии, что не соответствует равноценности с обычной версией Titan и той, что приведена в тесте. Спасибо пользователю Nortfolk за правильное критическое замечание.

Результаты испытаний R9 290X против GTX 780 Ti: Сравнение производительности Radeon R9 290X и GeForce GTX 780 Ti в 23 тестовых приложениях

Неполный текст вывода:

Начнем подведение итогов. Из 23 тестовых приложений в 16 лидирует GeForce GTX 780 Ti. В Rome 2 можно говорить о равенстве конкурентов. В оставшихся шести приложениях лидирует Radeon R9 290X, но в некоторых случаях разница с соперником мизерная (GRID 2, Sleeping Dogs). Так что GeForce GTX 780 Ti уверенно побеждает в общем зачете. На стороне нового флагмана NVIDIA еще и лучший разгон в сочетании с более низкими рабочими температурами, шумом и энергопотреблением. Флагман AMD очень близок к GeForce GTX Titan. Во многих играх разница между ними минимальна, а количество приложений, где лидирует каждый из них, примерно равно. GeForce GTX 780 Ti является самым производительным решением среди однопроцессорных графических ускорителей. Он превосходит Radeon R9 290X по всем критериям, но и стоит дороже. У GeForce рекомендованная цена 700 долларов против 550 долларов за конкурента. Разница существенная. Состоятельных геймеров-перфекционистов такая стоимость не отпугнет, но для более экономного покупателя лучшей покупкой станет Radeon R9 290X.

(upd) Трудности выбора: nVidia vs AMD - фото 4

Простая арифметика

35 тыс.руб. Vs 20 тыс.руб. = 15 тыс.руб за практически равные силы.

27 тыс.руб Vs 20 тыс.руб = 7 тыс. руб за +19 fps в Bioshock.

А это еще, мы не берем в расчет то, что сейчас R9 290X работает без той технологии, к которой ее готовили несколько лет. Правильно, Мантия. Опять же, Mantle может оказаться лишь пиар ходом. Кто знает? А если нет?

(upd) Трудности выбора: nVidia vs AMD - фото 5

Итоги статьи

А ведь они и не нужны. Каждый прочитавший текст полностью, плюс те тесты что представлены в ссылках, уже сделал выводы и свой выбор. Тут по сути дело вкуса и кошелька.

Спасибо за внимание!

(upd) Трудности выбора: nVidia vs AMD - фото 6
(upd) Трудности выбора: nVidia vs AMD - фото 7
Комментарии 90
Чтобы оставить комментарий,Войдите или Зарегистрируйтесь
Tony Quick
Tony Quick
Пост годный, сам вижу что у красных щас все налаживается, но не сложилось у меня с их карточками в свое время, а потому пускай я заплачу на 1-2к больше(титаны мне как то не нужны) и получу чуть более мощную карту- мой выбор пока всегда в пользу зеленых, да и geforce expirience на пару с shadowplay радуют все больше)