(upd) Трудности выбора: nVidia vs AMD
На данный текст меня натолкнули комментарии в недавно написанной мною статье - Mantle API, консоли и Nvidia. Выражаю свою благодарность всем тем, кто оставил их. Но не о статье сейчас пойдет речь. Комментарии пользователей и мое желание ответить им в рамках доступной информации, помогли мне сделать некий вывод того, что же сейчас происходит на рынке графических решений.
“Но кому, черт возьми, нужны твои выводы?” - спросите Вы, дорогие читатели. Отвечу: Уже не раз на сайте вижу комментарии или вопли, в которых люди задают вопрос о том, видеокарту какого производителя выбрать - nVidia или AMD?
Так вот, я считаю, что таким людям стоит прочитать данную статью. А для всех остальных - есть текста и получше на сайте. С другой стороны, для общего развития прочитать тоже не плохо.
Мир мифов и легенд.
В народе бытует мнение, мол драйвера для Radeon это не набор софта, а мистический ритуал примирения железки с OC.
Увы, но миф развеян. Уже не знаю с какой версии драйверов дела пошли в гору, но сейчас все хорошо. Даже больше скажу. Есть тест - "Противостояние. AMD Radeon HD 7970 vs NVIDIA GeForce GTX 680", суть которого заключается не в том, чтобы сравнить производительность видеокарт как таковых, а в том, как эта производительность улучшилась со времени выхода видеокарт и через некоторое время после выпуска нескольких версии драйверов.
Для тех кому не хочется тратить лишний трафик переходом по ссылке, озвучу заключение полевых испытаний:
Выводы очевидны. Несмотря на полгода, прошедшие с момента выхода видеокарты GeForce GTX 680, команда «А» (NVIDIA) не смогла заметно улучшить свои позиции. Изначально в качестве возможной причины предполагался меньший шаг GPU Boost у видеокарты, но это оказалось не так. Во время тестов частота GPU варьировалась в диапазоне 1084-1110 МГц, что укладывается в штатные характеристики. Таким образом, заметного роста производительности для NVIDIA GeForce GTX 680 при замене драйверов с версии 301.10 на 306.хх вы не получите.
В то же время команда «Б» (AMD) проделала большую работу по оптимизации и адаптации своей версии драйверов к существующим играм. Ситуация, когда вендор «жульничает», сейчас не рассматривается, поскольку сравнение визуального качества картинки – тема отдельного разговора.
На встречу игрокам.
Раньше, Я всегда считал, что видеокарты nVidia лучше чем решения от AMD, и это отчасти правда. Почему у меня было такое мнение? Узнаете ниже. А теперь немного истории.
Вооружившись машиной времени под названием Google, откопал в архивах всемирной паутины интересные записи:
История nVidia в видеокартах: 13 лет успеха.
25 лет истории ATI в картинках.
Это на случай, если у Вас появится свободное время, а заняться будет нечем. А для тех кто большие объемы теста не любит, озвучу успех nVidia вкратце.
В 1999 году nVidia выпустила в свет свое новое детище - GeForce 256. С архитектурой данной карты, компания сделал огромный технологический шаг вперед. Наличие аппаратного ускорения геометрических преобразований и света сделает GeForce чипом нового поколения, равных которому пока нет. У ATi на этот момент была линейка видеокарт Rage, которая не была столь производительна и не пользовалась популярностью, ввиду технических спецификации и проблем с драйверами.
В 2000 году видеокарты АTi стали продавать под новым названием - Radeon, но мощности это им не добавляло. Пользователи, конечно, новинку оценили и карты заняли свою нишу, но технологии от nVidia игрокам пришлась больше по вкусу.
Начиная с этого времени, nVidia и ATI потихоньку стали отсеивать конкурентов с рынка игровых видеокарт. Почему игровых? Потому что графические ядер, все равно продает больше Intel как сейчас, так и в то время. Но сути это не меняет. Из всей истории, Я считаю нужно отдать должное компании “зеленых”, так как благодаря их идеи выпускать игровые графические платы для ПК, положили начало расцвету игровой индустрии, а так же дало уверенный толчок в будущее.
Но то история, а что же сейчас предлагают компании игрокам?
Технология NVIDIA® 3D VisionTM Surround позволяет задействовать три монитора в режиме Full HD 3D, обеспечивая невероятно захватывающий игровой процесс. Теперь благодаря графическим процессорам серии GeForce GTX 400 и 200 вы можете расширить обзор периферии в 3D играх, что позволит быстрее замечать врагов, получать полное представление о событиях в стратегических играх и еще быстрее вести машину в гонках.
и
Radeon R9 290X
О сравнение:
Было бы глупо делать сравнение цен двух образцов опираясь только на спецификации. Конечному потребителю(игроку) важнее, как эти карты отрабатывают свои деньги в играх. По этому, я приведу ссылку на тест, в котором обоих конкурентов испытают в современных играх и специальных приложениях, типа 3DMark.
(цены на момент написания статьи)
- ASUS GeForce GTX TITAN -
средняя цена: 35 тысяч рублей - yandex market
Технические характеристики:
- Частота графического процессора: 837 МГц;
- Объем видеопамяти: 6144 Мб;
- Тип видеопамяти: GDDR5;
- Частота видеопамяти: 6008 МГц;
- Разрядность шины видеопамяти: 384 бит;
- Частота RAMDAC: 400 МГц;
- Число универсальных процессоров: 2688;
- Версия шейдеров: 5.0;
- Число текстурных блоков: 224;
- Число блоков растеризации: 48;
- Максимальная степень анизотропной фильтрации: 16x;
- Максимальная степень FSAA: 32x;
- Поддержка стандартов: DirectX 11.1, OpenGL 4.3
- ASUS Radeon R9 290X -
**(upd)**средняя цена: 20 тысяч рублей - yandex market
Технические характеристики:
- Частота графического процессора: 947 МГц;
- Объем видеопамяти: 4096 Мб;
- Тип видеопамяти: GDDR5;
- Частота видеопамяти: 5000 МГц;
- Разрядность шины видеопамяти: 512 бит;
- Частота RAMDAC: 400 МГц;
- Число универсальных процессоров: 2560;
- Версия шейдеров: 5.0;
- Число текстурных блоков: 160;
- Число блоков растеризации: 64;
- Максимальная степень анизотропной фильтрации: 16x;
- Максимальная степень FSAA: 24x;
- Поддержка стандартов: DirectX 11.2, OpenGL 4.3
Обе видеокарты где-то хуже, где-то лучше друг друга, это видно и невооруженным глазом. Но чего они стоят в играх?
Вот результаты полевых испытаний: Кто быстрее: Radeon R9 290X или GeForce GTX Titan?
Вывод:
Возможно, Radeon R9 290X не способен разнести в пух и прах своего конкурента, но на стороне AMD есть ряд преимуществ. Во-первых, это процессор Hawaii, работающий на частоте всего 800 МГц. Если разгонный потенциал флагмана Volcanic Islands будет соизмерим с возможностями предшественников, это придаст Radeon R9 290X некоторой “уверенности” на фоне соперников. Во-вторых, интерфейс Mantle, который сулит дополнительный рост быстродействия в играх. Правда, насколько весомым окажется это преимущество, мы узнаем только в декабре.
—
(upd: предыдущий тест, который я привел, был не между GeForce Titan и R9 290X. Вместо Titan была GeForce GTX 780 Ti, это железно “разогнанная” версия, которая была сконструирована в конкуренты флагману AMD. Она действительно выигрывает в быстродействие, и цена ее 27 тыс. руб. Я так же подкорректировал цену R9 290x - так предыдущая была, цена специально BF4 версии, что не соответствует равноценности с обычной версией Titan и той, что приведена в тесте. Спасибо пользователю Nortfolk за правильное критическое замечание.
Результаты испытаний R9 290X против GTX 780 Ti: Сравнение производительности Radeon R9 290X и GeForce GTX 780 Ti в 23 тестовых приложениях
Неполный текст вывода:
Начнем подведение итогов. Из 23 тестовых приложений в 16 лидирует GeForce GTX 780 Ti. В Rome 2 можно говорить о равенстве конкурентов. В оставшихся шести приложениях лидирует Radeon R9 290X, но в некоторых случаях разница с соперником мизерная (GRID 2, Sleeping Dogs). Так что GeForce GTX 780 Ti уверенно побеждает в общем зачете. На стороне нового флагмана NVIDIA еще и лучший разгон в сочетании с более низкими рабочими температурами, шумом и энергопотреблением. Флагман AMD очень близок к GeForce GTX Titan. Во многих играх разница между ними минимальна, а количество приложений, где лидирует каждый из них, примерно равно. GeForce GTX 780 Ti является самым производительным решением среди однопроцессорных графических ускорителей. Он превосходит Radeon R9 290X по всем критериям, но и стоит дороже. У GeForce рекомендованная цена 700 долларов против 550 долларов за конкурента. Разница существенная. Состоятельных геймеров-перфекционистов такая стоимость не отпугнет, но для более экономного покупателя лучшей покупкой станет Radeon R9 290X.
—
Простая арифметика
35 тыс.руб. Vs 20 тыс.руб. = 15 тыс.руб за практически равные силы.
27 тыс.руб Vs 20 тыс.руб = 7 тыс. руб за +19 fps в Bioshock.
А это еще, мы не берем в расчет то, что сейчас R9 290X работает без той технологии, к которой ее готовили несколько лет. Правильно, Мантия. Опять же, Mantle может оказаться лишь пиар ходом. Кто знает? А если нет?
Итоги статьи
А ведь они и не нужны. Каждый прочитавший текст полностью, плюс те тесты что представлены в ссылках, уже сделал выводы и свой выбор. Тут по сути дело вкуса и кошелька.
Спасибо за внимание!