Geforce amd: NVIDIA или AMD – выбираем оптимальные видеокарты лета 2022г по цене и производительности
Содержание
Запускаем AMD FreeSync на видеокарте NVIDIA
Присутствующие на рынке технологии NVIDIA G-Sync и AMD FreeSync позволяют синхронизировать частоту кадров в 3D-играх с частотой обновления экрана, что позволяет решить проблему разрыва кадров.
Мониторы с поддержкой G-Sync, при прочих равных, стоят заметно дороже. Это обусловлено наличием в них дополнительного проприетарного модуля, часть стоимости которого идет на лицензионные отчисления NVIDIA.
А вот AMD FreeSync обходится пользователю монитора, можно сказать, бесплатно.
На рынке заметно значительное преобладание мониторов с поддержкой AMD FreeSync по числу разнообразных моделей. Кроме того, AMD FreeSync начинает появляться и в телевизорах.
Как известно, синхронизация AMD FreeSync будет работать только с видеокартами AMD Radeon (современными), а NVIDIA G-Sync, в свою очередь, — исключительно с видеокартами NVIDIA GeForce.
Но энтузиасты нашли метод, как обойти это ограничение.
Мы также решили проделать эксперимент и включить AMD FreeSync на видеокарте NVIDIA.
Необходимое условие
Для того чтобы технология AMD FreeSync заработала с видеокартой NVIDIA, необходимо, чтобы в системе, вдобавок к видеокарте NVIDIA, присутствовал графический процессор AMD Radeon.
Причем это может быть GPU в составе еще одной видеокарты, либо GPU, встроенный в процессор.
И, конечно же, сам монитор должен иметь поддержку AMD FreeSync.
Запускаем
Для эксперимента мы подобрали систему на базе процессора AMD Ryzen 5 2400G. Этот процессор оснащен встроенным графическим процессором Radeon Vega 11, который имеет родную поддержку FreeSync.
В этой же системе была установлена видеокарта на базе NVIDIA GeForce GTX 1070 Ti.
Ключевые компоненты тестовой платформы:
Процессор: AMD Ryzen 5 2400G со встроенным видео Radeon Vega 11
Материнская плата: MSI B450M Mortar
Дискретная видеокарта: MSI GeForce GTX 1070 Ti GAMING 8G
Операционная система: Windows 10 Pro 64 бит
Монитор с поддержкой AMD FreeSync: MSI Optix MPG27C
Для начала в настройках BIOS материнской платы необходимо принудительно включить интегрированный в процессор графический адаптер.
После загрузки операционной системы (в нашем случае — Windows 10) в диспетчере устройств появятся сразу два видеоадаптера: AMD Radeon Vega 11 и NVIDIA GeForce GTX 1070 Ti.
Необходимо установить драйверы обоих этих видеоустройств.
Обратите внимание, что провод видеосигнала (в нашем случае подключение осуществлялось по HDMI) должен быть подключен к видеовыходу на материнской плате (обеспечивается встроенным в процессор графическим адаптером), а не на дискретной видеокарте NVIDIA.
После установки драйверов в настройках Radeon Vega 11 необходимо проверить, чтобы функция AMD FreeSync была активирована.
Теперь переходим в настройки NVIDIA GeForce GTX 1070 Ti и в разделе «управление параметрами 3D» принудительно выбираем графический адаптер NVIDIA для каждого необходимого вам приложения (игры).
Заметим также, что выбор графического адаптера для отдельных приложений (игр) с недавнего времени стал доступен и в самой системе Windows 10.
Остается теперь только запустить игру и наслаждаться плавной картинкой без разрыва кадров с работающей технологий AMD FreeSync.
Работа AMD FreeSync с видеокартой NVIDIA GeForce GTX 1070 Ti хорошо заметна в специальном тесте AMD FreeSync Demo (небезызвестная мельница-ветряк)
Получается, что в играх или бенчмарках вся обработка происходит на базе мощной дискретной видеокарты NVIDIA GeForce GTX 1070 Ti, а изображения ретранслируется на видеовыход, обеспечиваемый встроенным в процессор графическим ядром AMD Radeon Vega 11, и при этом система обеспечивает работу технологии AMD FreeSync.
Теоретически при такой ретрансляции на другой видеовыход добавляется микроскопическая задержка. Сложно сказать, способен ли человек заметить эту дополнительную задержку.
Недостатки
Делать большую ставку на такой режим работы мы бы категорически не рекомендовали. Подобная активация AMD FreeSync не предусмотрена ни со стороны AMD, ни со стороны NVIDIA.
В любой момент может выйти какое-то программное ограничение, и метод перестанет работать.
В процессе экспериментов не все проходило гладко: иногда в окнах некоторых приложений, связанных с работой видеоадаптеров, изображение отображалось некорректно.
В общем, запуск AMD FreeSync на видеокарте NVIDIA — это в большей степени развлечение для энтузиастов. Попробовать это интересно, возможно, кто-то будет действительно применять это на практике.
Кстати, обратный вариант с использованием NVIDIA G-Sync на видеокартах AMD Radeon по указанной схеме также возможен. Но необходимость этого выглядит уж совсем надуманной. Сложно представить систему, в которой будут две видеокарты с более мощной платой AMD и при этом будет в наличии монитор с поддержкой NVIDIA G-Sync.
Благодарим компанию MSI за предоставленное для экспериментов оборудование
evo
Інженер Тестової лабораторії
Читайте також
AMD Radeon HD 5670 против NVIDIA GeForce GT240 / Хабр
Уважаемые Хабро-читатели, ниже я опубликовал художественный перевод статьи хорошего друга OCClub. ru, известного румынского IT-журналиста и оверклокера Monstru, одного из основателей проекта LAB501. Поделиться с вами этим материалом я решил неспроста – мне очень понравился стиль аналитики (в IT, к сожалению, вообще очень мало журналистики, а это прям такой «горячий» образчик :)), да и тема весьма и весьма актуальная. Приглашаю вас тоже оценить творчество моего коллеги!
Внимание! Под катом – довольно много фотографий.
Введение
Много было написано про крутую, мощную, вкусную, особенно с точки зрения оверклокеров и геймеров-маньяков, и самую дорогую двухчиповую AMD Radeon HD 5970, но сегодня речь пойдет, наоборот, о самой дешевой (на данный момент) видеокарте в линейке Radeon HD 5xxx, носящей кодовое имя Redwood (красное дерево) AMD Radeon HD 5670, которая может стать «лучиком света» для пользователей, не обладающих ненормальными бюджетами. Сказать по чести, испытываешь странное чувство, когда, открыв коробку, нос к носу сталкиваешься со звуковой картой с DVI-выходом, особенно если раньше имел дело только с топовыми продуктами. Не лучше себя чувствуешь, и когда сталкиваешься с ее тихой «подружкой» от HIS – сетевой карточкой с охлаждением в стиле «Бэтмэн-на-стероидах». Обычно, я избегал встречи с подобными «произведениями ювелирного искусства», но, надо признать, что сейчас, во времена экономической рецессии, эти малышки будут интересны многим читателям, предпочитающим видеокарты по цене в районе 100 долларов. Так что я запасся терпением, воткнул в тестовый стенд «звуковую карту», нацепил бэтмэнские ушки, и засел за тесты, чтобы выяснить, можно ли как-то на этом играть? Прав ли я в своем скепсисе или ошибаюсь? Что ж это будет видно далее.
Но не ранее, чем я скажу пару слов о происходящем :). Ситуация на рынке графических плат сейчас, прямо скажем, интересна, уникальна и даже неожиданна. AMD первая выпустила мощную 5-ю серию, которая не только внедрила поддержку DirectX 11, но и обладает чудовищной вычислительной мощностью, причем это касается видеокарт всех ценовых сегментов. HD 5970, HD 5870, HD 5850, HD 5770 и HD 5750 – просто-напросто законодатели мод на нынешнем рынке, в то время как NVIDIA все занимается «обогащением» своего ассортимента технологиями PhysX, CUDA, 3D Vision, но не новыми продуктами. Видеокарты AMD доминируют по всей линейке, но сталкиваются с проблемами доступности и эффективности использования, а NVIDIA машет перед нашим носом «технологией будущего» — Tesla, объемным изображением, 40-нанометровым техпроцессом и переименовывает старые продукты… GT 240, GTS 240… Кому они на фиг нужны?! Дайте нам GT300 и точка, вместо того, чтобы выпускать старые «новые» продукты в течение уже 7-8 месяцев!
Честно говоря, мне совсем не нравится маркетинговая политика NVIDIA в прошлом году. Ну, хорошо, я готов простить им это, но болезненная задержка запуска нового поколения их графических чипов повлияла на нас всех, осознаем мы это или нет. Из-за этого AMD, чьи ключевые продажи до недавнего времени базировались на предоставлении лучшего сочетания «цена-качество», кардинально перетрясли прайс-листы, и теперь мы имеем более жесткие цены на более дешевые продукты. Пока не улавливаете смысла в моих словах? Ну что ж, не будем ходить вокруг да около… Попросту говоря, видеокарта, которая сейчас стоит, как HD 4770 в момент старта продаж, идет на замену HD 4650 – почувствуйте иронию! Отсутствие реальной реакции со стороны конкурента вдарило по рыночному сегменту, где 7 баксов – это еще какая долбанная разница!
Я слишком долго не имел дел со средним уровнем, поэтому стал излишне оптимистичным. Что ж, теперь только от того, какую производительность покажет новинка, зависит, поменяю я к ней свое отношение или нет.
Знакомство с продуктом
Для тестирования я получил от HIS референсную версию AMD Radeon HD 5670 и фирменную модель с двухслотовой системой охлаждения Ice-Q от Arctic Cooling. Исследуем ретейловую версию HIS, которая в скором времени уже должна появиться в магазинах. Упаковка содержит саму видеокарту, CD с драйверами и инструкцию пользователя. Вполне достаточно, если учесть, что мы имеем дело с продуктом начального уровня, хоть и с нереференсным охлаждением.
Решение от HIS заставило меня немного смягчить свое мнение – карточка выглядит совсем неплохо. Когда видеокарту охлаждает система значительно большая по размеру, чем на референсной модели, она для меня начинает выглядеть, как небольшой бриллиантик.
Коннекторы разнообразны (D-SUB, DVI и HDMI) и покрывают весь спектр интерфейсов, используемых сейчас.
Система охлаждения занимает два слота и выбрасывает горячий воздух за пределы корпуса ПК. Это несомненный плюс, чего не скажешь о референсной AMD Radeon HD 5670, которая будет жарить о-го-го как! Кроме того, 80мм вентилятор при меньших оборотах позволяет держать чипсет более холодным, что делает этот продукт весьма тихим, и вы не можете не признать, что это весьма впечатляюще для продукта из этого ценового диапазона.
Радиатор, используемый в системе охлаждения от Arctic Cooling, полностью выполнен из алюминия. Он имеет изрядное расстояние между ребрами, что позволяет этому образцу добиваться низких температур при довольно низком токе воздуха. Единственным минусом нереференсного радиатора является отсутствие непосредственного контакта с чипами памяти, но, как показывают тесты стабильности, они и не склонны к перегреву, так что на практике это не столь важно.
Сравнение с референсной картой
У нас не было возможности протестировать ретейловую референсную версию видеокарты (и что-то подсказывает мне, что мы увидим больше вариантов «референсных» моделей от AMD/ATI, предоставленных в качестве первых инженерных образцов для тестирования), но очевидно, что она будет иметь маленький кулер, объективно более громкий, чем у решения HIS, и черный текстолит (у HIS он – темно синий), но, за исключением конфигурационных инженерных переключателей и портов вывода, платы будут идентичны.
Как я и сказал по поводу сравнения портов вывода, у HIS на карте представлены D-SUB, DVI и HDMI, в то время, как у инженерного сэмпла от AMD реализованы VDI, HDMI и Display Port. Отсутствие D-SUB в этом ценовом сегменте кажется нелогичным, но, скорее всего, это связано с тем, что AMD хотели показать, что даже малюсенькая HD 5670 может использовать технологию Eyefinity.
Думаю, самые внимательные читатели уже заметили, что чего-то здесь не хватает. Честно говоря, это вообще первое, что я искал глазами, сидя на презентации, — ага, речь про коннектор CrossFire. Да-да, леди и джентльмены, несмотря на то, что я внимательно осмотрел все три референсных сэмпла на презентации, ни на одном из них ничего подобного я не нашел. Это к сожалению ограничивает использование AMD Radeon HD 5670 в массиве CrossFire только двумя видеокартами, объединяемыми средствами материнской платы. Несмотря на то, что мне было очень любопытно узнать, как повели бы себя три таких «зверька» в CrossFireX, узнать это невозможно физически.
Рассматривая системы охлаждения, нетрудно предположить, что очень скоро мы увидим безвентиляторные решения, идеальные для любителей HTPC.
Под капотом
Хорошо, теперь, когда мы покрутили видеокарты и осмотрели их со всех сторон, займемся тем, что и мне, и читателям нравится больше всего, — раздеванием :). Я «оголил» обе видюшки – HIS и AMD Radeon HD 5670.
Плата – максимально простая, что делает ее похожей на HD 4770. Двухфазная цепь питания для GPU и одна фаза для питания GDDR5 – этого вполне достаточно для маленького «Красного деревца». Чипы памяти выпущены Hynix и сертифицированы для работы на частоте 1 ГГц (4 ГГц эффективной частоты QDR). Обратите внимание на отсутствие контактов CrossFire на представленных фотографиях. Однако, как я уже сказал раньше, вы можете использовать программный CrossFire из двух плат, осуществляющих связь только через шину материнской платы.
Спецификации
AMD Radeon HD 5670 принадлежит к 5-ой серии видеокарт AMD, таким образом мы имеем поддержку DirectX 11, 40нм процесс производства и GDDR5 память. Ширина шины памяти сохранена на уровне 128 bit, как у HD 57xx, а количество потоковых процессоров урезано до 400 (вполовину по сравнению с HD 57xx). Для сравнения AMD Radeon HD 4770 имеет 640 потоковых процессоров, но поддерживает только DirectX 10.1. Производительность процессора в 620 Гфлопс также говорит нам о том, что мы имеем дело отнюдь не со слабой графикой, но это мы осудим уже после практических тестов. Еще одна вещь, которую следует упомянуть, это то, что HD 5670 – карта стоимостью менее $100, способная без проблем транслировать HD-контент (видео и аудио) по HDMI-кабелю.
Eyefinity, HDMI 1.3a с поддержкой Dolby True HD и DTS Master Audio – указывают AMD в своей презентации. Обращаю ваше внимание на критические аспекты: ~$100, ~61W. «Справедливая низкая цена, очень экономична» — так бы я описал эту видеокарту, если бы потребовалось сделать это в короткой SMS.
Тестовая платформа
Для теста AMD Radeon HD 5670 я буду использовать платформу, которую ранее использовал для теста Gigabyte GeForce GT240. Почему? А чтобы понять, как эти два новых продукта позиционируются относительно друг друга. Я делаю это для наглядности информации – не для прямого сравнения. Чтобы убрать все «бутылочные горлышки» из платформы, я использовал Intel Core i7 870, разогнанный до 4 ГГц, 4 Гб DDR3 2000 CL9 Avexir, материнскую плату High-End класса на базе P55 – EVGA Classified P55 NF200. Однако очевидно, что счастливые покупатели HD 5670 явно не в категории покупателей «Classified + i870», поэтому я использовал и вторую тестовую платформу, состоящую из Biostar TH55 XE, Core i3 530 на штатной частоте (2.93 ГГц) и 4 Гб DDR3 1333 CL9. Другими словами, недорогая, но мощная платформа. Я хотел еще протестировать E4300 + DFI Infinity P965-S + 2 Гб DDR2, но Windows 7 с 965-м чипсетом DFI и HD 5670 «дружить» отказалась, поэтому в силу некоторой нехватки времени пришлось от этой идеи отказаться.
Тестовый стенд:
Процессор:
1) Intel Core i7 870 @ 4 ГГц
2) Intel Core i3 530 @ 2,93 ГГц
Материнская плата:
1) EVGA Classified P55 NF200
2) Biostar TH55 XE
Оперативная память:
2х2 Гб DDR3 2000 МГц Avexir
1) 2000 МГц 9-9-9-24 1Т
2) 1333 МГц 9-9-9-24 1Т
Охлаждение: Noctua NH-U12P + Coolink SWIF 2 120P 1950 rpm
Видеокарта:
1) Gigabyte GeForce GT240
2) HIS Radeon HD 5670
3) AMD Radeon HD 5670
Жесткий диск: WD 5000AAKS
Блок питания: OCZ EliteXStream 1000W
Температура окружающей среды: +25оС
ОС: Windows 7 Ultimate x86
Драйвера:
1) NVIDIA Forceware 195. 62 WHQL
2) ATI BETA 8.14.10.0708
Методика тестирования
Времени было мало. Я мог, конечно, провести сравнительное тестирование с HD 4770, но вместо этого я решил прогнать обе карты по одной и в CrossFire конфигурации и посмотреть производительность одиночной карты на разных процессорах. Я не стал прогонять набор 3DMark’ов для процессора Intel Core i3 530 – влияние процессора на эти тесты хорошо известно. Вместо этого я хотел посмотреть результаты в реальных приложениях 2-ядерного процессора с 4 потоками на частоте 2,93 ГГц в сравнении с более мощным Lynnfield с 4 ядрами и 8 потоками на частоте 4 ГГц в сочетании с видеокартой начального уровня. Также разница в настройках памяти была гигантской (DDR3 2000 МГц CL9 против DDR3 1333 МГц CL9), что давало возможность, наконец, ответить на вопрос, имеет ли смысл тратиться на память «с запросами» для систем этого уровня производительности.
Технические характеристики:
Графический чип | HD 5670 | GT240 |
Название чипа | Redwood | GT215 |
Частота GPU | 775 МГц | 550 МГц |
Частота памяти | 1000 МГц | 950 МГц |
Частота шейдера | 775 МГц | 1340 МГц |
Объем GDDR | 512 Мб | 512 Мб |
Типа памяти | GDDR5 | GDDR5 |
Разрядность шины памяти | 128 бит | 128 бит |
Количество шейдерных процессоров | 400 | 96 |
Текстурных блоков (ROP) | 8 | 8 |
Технологический процесс | 40нм | 40нм |
Частота GPU (разгон) | 850 МГц | 615 МГц |
Частота памяти (разгон) | 1000 МГц | 950 МГц |
Частота шнйдера (разгон) | 850 МГц | 1500 МГц |
По ценам новинка от AMD идет ноздря в ноздрю с Gigabyte GeForce GT240, оснащенной 512 МБ GDDR5 (~$100). Это самый последний продукт NVIDIA из запущенных в сегменте начального уровня, произведенный по 40нм техпроцессу и привнесший поддержку DirectX 10.1. Версия Gigabyte – тоже в «Бэтмэн-стиле», как можно заметить по фотографии.
Тестирование
Как всегда, начинаем с синтетических тестов, чтобы определить «валовую» производительность тестируемых видеокарт.
3DMark 2003
Hd 5670 сразу оторвалась от GT240, и отрыв – весьма значителен для этого уровня производительности. CrossFire достиг существенного прироста производительности, хоть прирост и не смог преодолеть 50% производительности одиночной видеокарты.
3DMark 2005
Ситуация сохранилась неизменной и в 3DMark 2005, однако опережение HD 5670 соперницы в лице GT240 – существенно меньше, чем в предыдущем бенчмарке.
3DMark 2006
Различие в производительности видеокарт конкурентов сохранилось на том же уровне в 3DMark 2006, но неожиданно удивил CrossFire, который умудрился впечатлить нас ~90% приростом. Похоже, последние графические технологии сумели увеличить выгоду от добавления второй видеокарты в компьютер.
3DMark Vantage
И Vantage тоже отмечает увеличение прироста от второй видеокарты, в то время, как разница между GT240 и HD 5670 остается незыблемой.
Игровые тесты
На этот раз игры – это реально интересный пункт повестки даже для меня: всегда было любопытно посмотреть, что могут эти «гномы от 3D». Выбор настроек в этот раз потребовал большой деликатности и проведения серьезных предварительных тестирований для выбора оптимальных установок для каждой игры. Наконец, я решил остановиться на разрешении 1680 х 1050 с двумя уровнями детализации, где это было возможно. Таким образом, я постарался выбрать некоторое количество настроек, которые приблизили результаты к играбельному уровню, ведь, в конце-концов, эти видеокарты в огромных количествах будут покупать не монстры бенчмаркинга, а юзеры, которые просто хотят поиграть.
FarCry2
Ну, кто бы сомневался, что мы начнем с FarCry2 – Duna по-прежнему остается одним из самых совершенных графических движков на данный момент. К сожалению, не удалось выбрать два уровня детализации в режиме DX10 – любое их увеличение приводило к блокированию результатов теста или слишком низким значениям фреймрейта. Таким образом, использовались предустановки для DX10 со всеми настройками в режиме Hihg без антиалиасинга (сглаживания). Огонь, физика и деревья были выставлены в низкий уровень, а текстуры – в средний. Любая попытка запустить тест с этими настройками на Hihg приводила к вылету теста. Вероятно, это проблема драйверов, которая возникает даже с настройками, ограничивающими производительность.
Сразу бросается в глаза, что разница между конкурирующими видеокартами – мизерная. Да, 3-4 кадра в секунду – это при 45 фпс примерно 8-10%, но на таком уровне эта разница никак не влияет на нормальный игровой процесс. Гораздо интереснее монструозны прирост, который дал CrossFire, так что добавление второй видеокарты может существенно изменить игровые впечатления.
Ну и, наконец, но от этого не менее интересно сравнить две платформы Core i3 530 на 2. 93 ГГц и Core i7 870 на 4 ГГц, и разница между ними… ноль!
Tom Clancy’s HAWX
Благодаря реализации DX10.1 HAWX всегда был очень интересным бенчмарком, и видеокарты AMD имели преимущество по этому вопросу. Что ж, теперь и видеокарты NVIDIA поддерживают DX 10.1, поэтому мне было очень интересно, что же мы получим в итоге. В HAWX (как и в остальных играх, за исключением FarCry2) я смог использовать два уровня настроек качества при разрешении 1680 х 1050. Таким образом, первый раз я прогонял бенчмарк с высокой детализацией и двукратным сглаживание (АА х2), а второй – с меньшей детализацией (низкой/средней) и отключенным сглаживанием. При пером наборе настроек разница между AMD и NVIDIA довольно большая, но она практически несущественна, когда запускаешь тест в низкой детализации. Опять наблюдается чудовищный прирост от использования CrossFire, но никакой разницы между двумя платформами.
Resident Evil 5
Resident Evil 5 держится в струе: ~10% разницы между AMD и NVIDIA, в то время как мультикарточная конфигурация «стреляет» за 50% (кроме режима высокой детализации со сглаживанием, где даже она спотыкается). Опять же (да, я знаю, я повторяюсь) никакой разницы между Core i3 в стоке и разогнанной Core i7.
STALKER: Call of Pripyat
Call of Pripyat – одна из первых игр, использующих DX11, обеспечивая пользователю волнующие визуальные впечатления. Интересно, что «Зов Припяти» — это единственная игра, где GT240 праздновала победу. На высоких настройках GT240 умудряется ускакать дальше, чем HD 5670, но при низкой детализации производительность опять одинаковая. И совсем уже занимательно, что обе видеокарты получают примерно одинаковые результаты в первых трех тестах (Day, Night, Rain, Sunshafts) и испытывают нехилые проблемы в 4-м, где HD 5670 набирает 1.5 fps, а GT240 – 5 fps.
Прирост в CrossFire слегка поменьше – около 30%, а разницы между стоковым Core i3 и разогнанным Core i7, очевидно, не существует.
Температуры
Должен сказать, что с самого начала тестирования и до его окончания никаких проблем с достигаемой устройствами в ходе тестов температурой не возникало. Референсная карта AMD достигала 69оС при 39% оборотах вентилятора при разгоне и 67оС при типичных настройках и вентиляторе на 38%. Модель от HIS вела себя схожим образом, достигая 70оС при 39% работы кулера во время оверклока и 68оС при 37% от максимальных оборотов при стандартных настройках. Очевидно, что фундаментальное различие между двумя решениями – в уровне шума, который существенно ниже у HIS. GT240 тоже не выбивается из общей тенденции, показывая 72оС при 35% кулера, демонстрируя очень низкий уровень шума, благодаря нереференсной системе охлаждения от Gigabyte. Хоть я и посмеялся над ним вначале, Бэтмэн делает свою работу очень неплохо!
Очевидно, что с таким энергопотреблением (61W) HD 5670 отлично подходит для HTPC и любителей бесшумных компьютеров. Конечно, и безвентиляторные решения не заставят себя долго ждать и позволят обрести полную тишину.
Влияние использованных CPU
Пусть я и не смог протестировать все, что предполагалось изначально (еще более слабый процессор – Intel Core 2 Duo Е4300), я сумел сравнить две платформы: Intel Core i3 530 + DDR3 1333 МГц CL9 и Intel Core i7 870 + DDR3 2000 МГц CL9 – и результаты вдохновляют. Если бюджет не позволяет купить мощное графическое решение, то процессор никак не повлияет на производительность, например, HD 5670 – система ограничена вычислительной мощностью, а не частотой CPU, как в случае с более дорогими видеокартами. Таким образом, можно сэкономить существенную сумму, приобретя относительно дешевую платформу на базе Core i3 и видеокарту из последней линейки AMD Radeom 5-й серии. Иными словами, система, позволяющая играть на разрешении 1680 х 1050 со средними настройками детализации, способная проигрывать полноценное HD-видео и обладающая приемлемым уровнем шума, может быть приобретена всего за $700. Лично я думаю, что это весьма выгодная покупка. Стоит отметить, что, очевидно, влияние процессора будет выше, если запускать игры в более низком разрешении, но в этом случае становится не очень понятен смысл приобретения видеокарты с поддержкой DX 11.
Выводы
Итак, мы добрались до конца в нашем приключении с 3D-гномами, и пришло время подвести черту. Как думаете, остаться на позиции, озвученной в самом начале материала? Или признать успех HD 5670? Мое личное мнение – все зависит от цены. Чем ближе она будет к 100 долларом, тем с большей уверенностью мы сможем сказать, что HD 5670 стоит своих денег и имеет преимущества над предложениями конкурентов в той же ценовой категории. Новости обнадеживают – первые партии, поступившие в Интернет-магазины, продаются по цене в диапазоне 112 – 119 долларов. Конкретный продукт, определенно, заслуживающий внимания, это HIS HD 5670, потому что, на мой взгляд, система охлаждения Arctic Cooling Silencer дает ему некую добавленную стоимость при той же цене и обеспечивает достойный уровень шума. Возможно, мы увидим подобные решения и от других производителей, но пока только HIS объявил о готовности поставлять свои устройства и старается держать цену на приемлемо низком уровне.
Наконец, я должен признать, что HD 5670 превзошла мои ожидания – производительность в играх при разрешении 1680 х 1050 – весьма достойная. Однако для более качественных визуальных впечатлений на этом разрешении немного больше мощности – не помешает. Немного больше производительности и цена в районе 95 долларов сделали бы эту модель абсолютной «Лучшей покупкой» в этом ценовом сегменте. Решение из двух HD 5670 в CrossFire становится действительно очень интересным. Проблема заключается только в изменении ценовой стратегии, благодаря недостатку конкуренции, в результате чего HD 5670 позиционируется иначе, чем ее предки. Таким образом, акцент делается на DX 11, Eyefinity и воспроизведение HD, добавляющие продукту ценности, в то время как производительность в играх сохраняется на уровне Radeon HD 4850, позиционирующейся производителем по рекомендуемой цене $119. Таким образом, AMD предлагает новый уровень технологии с производительность в играх старого перепозиционированного продукта. Я лично не могу испытывать благодарность за повышение цен на продукт класса Х650, но должен признать, что это более элегантное решение, чем постоянный ребрендинг, практикуемый некоторыми производителями.
Можно сделать вывод, что у AMD теперь есть весь спектр продуктов, начиная от $100 и заканчивая $770, и она выиграла конкуренцию и за сегмент начального уровня. Конечно же, запустив свой новый конкурирующий продукт «зеленый лагерь» развяжет новую ценовую войну, которая создаст так нужное нам ценовое давление и позволит получить цены лучше, чем сейчас. Ну, а покуда к выходу готовятся совсем дешевые решения, HD 5670 остается самым дешевым продуктом с поддержкой DX 11 на рынке.
3 причины, по которым вам все равно следует покупать графический процессор Nvidia, а не AMD
Мы все любим болеть за аутсайдеров — позиция, которой AMD наслаждается в области графических процессоров. Это особенно верно, когда Nvidia продолжает повышать цены до астрономических высот. Более того, если вы собираетесь купить новую видеокарту для своей системы, есть несколько веских причин для перехода в Team Red.
Содержание
- DLSS и Reflex
- Трассировка лучей
- Чистая производительность
- У AMD тяжелая битва
И все же есть причина, по которой Nvidia продолжает доминировать. Как бы мне не хотелось это признавать, сейчас нет никаких сомнений в том, что у Nvidia есть преимущество.
DLSS и Reflex
Джейкоб Роуч / Digital Trends
Невозможно обсуждать соперничество между AMD и Nvidia, не упомянув о некоторых эксклюзивных технологиях Nvidia. Сюда входят такие вещи, как Deep Learning Supersampling (DLSS) и Nvidia Reflex.
DLSS появился с созданием серии RTX 20 от Nvidia, но в следующих двух поколениях он получил значительный импульс. Раньше DLSS использовал ИИ для масштабирования изображений с более низким разрешением, не нагружая видеокарту. Это позволяет играм работать с более высокой частотой кадров (fps) и даже повышать качество визуальных эффектов.
Конечно, есть некоторые визуальные артефакты, но в целом DLSS всегда была одной из вещей, которыми Nvidia могла похвастаться.
А потом появился DLSS 3.
DLSS 3 предлагает значительные улучшения по сравнению с предыдущими версиями. Помимо фактора Super Resolution (который является просто технологией масштабирования), он также предлагает генерацию кадров на видеокартах серии RTX 40. Это может означать значительное увеличение частоты кадров.
На бумаге это также не должно снижать вашу общую производительность, поэтому вы, по сути, получаете вдвое или втрое больше кадров в секунду с DLSS 3. Конечно, как уже упоминалось, визуальные артефакты могут возникать (и случаются), но общий результат довольно хорош. большой.
Набор хитростей Nvidia также включает Reflex, технологию сокращения задержек. Nvidia Reflex сокращает время, необходимое для того, чтобы ввод от мыши достиг дисплея. Некоторых геймеров это не слишком волнует, но если вы увлекаетесь соревновательными шутерами и киберспортивными играми, Reflex может помочь вам сэкономить драгоценную задержку, не оказывая негативного влияния на производительность вашей установки.
DLSS работает только на видеокартах RTX, а DLSS 3 зарезервирован для новейших графических процессоров 40-й серии. Однако Reflex доступен на гораздо большем количестве карт — на любых, включая GTX 9.00 и выше подойдет.
Ответ AMD на DLSS — FidelityFX Super Resolution (FSR и FSR 2. 0). Хотя технология по-своему сильна, DLSS (и особенно DLSS 3) остается лидером в этом поколении. Nvidia имеет преимущество в задачах, связанных с ИИ, оптимизировав свои графические процессоры как с программной, так и с аппаратной стороны, чтобы иметь возможность поддерживать такие вещи, как DLSS и трассировка лучей. AMD еще не совсем готова, но планирует ввести генерацию кадров в FSR 3.0, на что будет интересно посмотреть.
На данный момент кажется, что Nvidia продает DLSS вместо самих графических процессоров — настолько мощна эта технология.
Трассировка лучей
Nvidia/CD Projekt Red
Трассировка лучей — это метод рендеринга, отвечающий за моделирование реалистичных теней, отражений и освещения. Это заставляет игры выглядеть лучше — иногда намного, намного лучше — но, конечно, за это приходится платить.
Трассировка лучей в реальном времени в играх требует значительных вычислительных ресурсов и затрат; запустить игру как Cyberpunk 2077 с включенной трассировкой лучей нагружает GPU и часто плохо заканчивается. Только самые мощные графические процессоры могут справиться с этим и при этом обеспечить высокую частоту кадров.
Nvidia — многолетний лидер рынка трассировки лучей. Конечно, карты AMD предлагают трассировку лучей, но они никогда не бывают достаточно хороши, чтобы не отставать от своих аналогов Nvidia. И это верно даже сейчас, когда серия RX 7000 внесла некоторые улучшения в производительность трассировки лучей AMD.
Включение трассировки лучей увеличивает эффект погружения и выводит игры на новый уровень реализма, поэтому последние пару поколений Nvidia была важным аргументом в пользу продажи. Это связано с тем, что Nvidia готова к трассировке лучей на аппаратном уровне. Карты Nvidia RTX поставляются с ядрами трассировки лучей (RT), которые поддерживают трассировку лучей с аппаратным ускорением. У AMD есть свои Ray Accelerators, и это помогает, но обычно этого недостаточно.
Сравним трассировку лучей на RX 7900 XTX с наиболее близкой по производительности RTX 4080. Хотя RX 7900 XTX работает лучше, чем флагман предыдущего поколения (RX 6950 XT), он все еще далеко от уровня Nvidia.
При запуске Cyberpunk 2077 в разрешении 4K и ультра настройках RTX 4080 может поддерживать в среднем 29 кадров в секунду. RX 7900 XTX отстает с 21,5 кадрами в секунду. В некоторых играх разрыв становится меньше или больше, но он есть всегда.
Короче говоря, если вам нужна трассировка лучей и приемлемая (или высокая) частота кадров, вам все равно нужно придерживаться Nvidia.
Исходная производительность
Джейкоб Роуч / Digital Trends
Если все, на что вы рассчитываете, — это чистая производительность, вам, вероятно, лучше всего обратить внимание на Nvidia прямо сейчас. В конце концов, именно у Nvidia есть бесспорный король всех видеокарт — RTX 4090.
Стоит ли RTX 4090 своих денег? Нет, если вас не волнует бюджетная сторона дела; есть лучшие предложения как от Nvidia, так и от AMD, если вы хотите получить выгоду. Однако, если вы согласны потратить 1600 долларов на видеокарту, RTX 4090 — это графический процессор.
Это единственная видеокарта, которая никогда не дрогнет, когда вы заставите ее запускать новейшие игры в разрешении 4K с включенной трассировкой лучей. Плавный игровой процесс гарантирован во всех случаях (кроме плохо оптимизированных игр, таких как Jedi: Survivor ).
AMD не имеет аналога RTX 4090, и, если верить интервью, не планирует его делать. Таким образом, AMD конкурирует только с RTX 4080 и RTX 4070 Ti.
Если мы сравним RX 7900 XTX и RX 7900 XT с их конкурентами Nvidia, то есть о чем поговорить, а не просто похвалить Team Green. AMD может стоять на своем, но RTX 4080 по-прежнему побеждает, особенно если вы заботитесь о трассировке лучей.
RTX 4070 Ti находится в более слабом положении, часто оказываясь немного медленнее, чем RX 7900 XT. Он также не так хорош в трассировке лучей, как его более дорогой брат. Однако доступ к DLSS 3 от Nvidia может стать хорошим аргументом в его пользу.
AMD ведет тяжелую битву
AMD сейчас в сложном положении; Nvidia доминирует на рынке графических процессоров с точки зрения производительности. Соотношение цены и качества совсем другое — карты AMD дешевле, но они не так много могут предложить более требовательным потребителям. Графические процессоры AMD последнего поколения также часто считаются более выгодными, чем новые карты. То же самое относится и к некоторым графическим процессорам Nvidia, но не в такой степени.
Несмотря на солидную серию RX 6000 и две приличные карты RX 7000, у AMD по-прежнему плохая репутация из-за более слабых драйверов. Однако это уже не так, как раньше. И у Nvidia, и у AMD были свои ошибки в драйверах, но эти проблемы далеко не так распространены, как вы думаете в социальных сетях. Тем не менее, это часто используется в качестве аргумента против AMD.
Если оставить в стороне странные предубеждения, я все же должен с тяжелым сердцем сказать, что Nvidia обычно является лучшим выбором прямо сейчас. Портфель карт AMD текущего поколения невелик, и Nvidia превосходит его по производительности и возможностям, не говоря уже об искусственном интеллекте и машинном обучении.
Если вы все еще не уверены, давайте поговорим о цифрах. DLSS 3 смог поднять RTX 4070 за 600 долларов выше почти любого другого графического процессора при запуске Cyberpunk 2077 в 4K с ультра-настройками и трассировкой лучей. RTX 4070 в среднем показывает 73 кадра в секунду в этом тесте, тогда как RTX 4080 без DLSS 3 отстает с неиграбельными 29 кадрами в секунду.кадров в секунду
Все еще рвется? Выбор прост — если вам нужно лучшее, что вы можете получить, выберите Nvidia. Даже если вы не покупаете RTX 4090, вы все равно будете наслаждаться всеми преимуществами только для RTX, хотя это может стоить вам на несколько сотен долларов больше.
Рекомендации редакции
Буквально никто не хочет покупать Nvidia RTX 4060 Ti.
Nvidia может выпустить 3 новых графических процессора, и это плохие новости для AMD
Вы должны использовать эти 5 забытых функций графического процессора Nvidia
AMD позволяет Nvidia победить, и ей нужно активизироваться, пока не стало слишком поздно
Nvidia RTX 4070 все еще продается по прейскуранту. Вот где это купить
AMD еще раз подчеркивает преимущество видеопамяти графических процессоров Radeon над GeForce, 16 ГБ от 499 долларов США
В этом месяце AMD дважды подчеркнула преимущество и ценность видеопамяти своих графических процессоров Radeon по сравнению с графическими процессорами GeForce, заявив, что они предлагают до 16 ГБ памяти. со стартовой ценой всего $499 США.
Маркетинг AMD показывает больше видеопамяти на графических процессорах Radeon по сравнению с графическими процессорами GeForce со стартовой ценой 499 долларов США
По словам старшего директора AMD по игровому маркетингу Сансы Маринкович, графические процессоры AMD Radeon RX 7000 и RX 6000 предлагают больше видеопамяти по лучшей цене. ценность, чем у конкурентов. AMD говорит, что ее опыт Radeon 16 ГБ начинается по цене 499 долларов США, тогда как опыт NVIDIA 16 ГБ начинается с 1199 долларов США.
Если мы начнем сравнение, то увидим, что видеокарта AMD Radeon RX 6800 16 ГБ стартует от 49 долларов. 9 US и предлагает вдвое больше памяти, лучшую производительность и продается по средней цене на 50 долларов США ниже по сравнению с RTX 3070. Карта также дешевле, чем RTX 4070 12 ГБ, которая начинается с 599 долларов США. По сравнению с этим, Radeon RX 6800 XT 16 ГБ можно найти примерно за 550-579 долларов США, а RX 6950 XT 16 ГБ имеет розничную цену около 649 долларов США и даже продавался по цене 599 долларов США, что является удивительной ценой.
В высокопроизводительном сегменте AMD Radeon RX 7900 XT стоит примерно на 50 долларов США больше, чем RTX 4070 Ti, и даже были заключены некоторые сделки, которые приблизили ее к той же рекомендованной розничной цене, что и 4070 Ti, и предлагают на 8 ГБ больше видеопамяти. RTX 7900 XTX по цене 999 долларов США предлагает 24 ГБ видеопамяти, в то время как NVIDIA RTX 4080 поставляется с 16 ГБ видеопамяти по цене 1200 долларов США, а единственными 24-гигабайтными картами от NVIDIA этого поколения является флагманская RTX 4090, которая имеет совершенно другую ценовую категорию — 1600 долларов США ( Рекомендованная производителем розничная цена). Эта карта — совершенно другой зверь, и сами AMD понимают, что ничто не сравнится с ней.
Хотя AMD и права, предлагая больше видеопамяти на сегмент по гораздо более выгодной цене, следует помнить, что это не самые дешевые 16-гигабайтные варианты. Эта корона достается Intel Arc A770 16 ГБ, который продается по цене около 350 долларов США, разница составляет 150 долларов США. Производительность карты не сравнима с RX 6800, поэтому и цена ниже. Добавление более высокого объема видеопамяти — отличная вещь, учитывая недавние порты ПК, которые были очень неоптимизированными и требуют дополнительной видеопамяти для правильной работы, не вызывая проблем с утечкой памяти.
Star Wars Jedi Survivor — это лишь один из недавних примеров, который испытывает множество проблем на платформе ПК. Это игра, спонсируемая AMD, и все лагеря, Intel, NVIDIA и AMD, сталкиваются с проблемами во время игры. Именно поэтому геймеры отрицательно оценивают его в Steam. Разработчики принесли извинения игрокам на ПК, но это продолжалось некоторое время с портами для ПК, которые перерабатываются из вторых рук и требуют месяцев исправлений для работы в игровом состоянии. Мы надеемся, что это изменится, и разработчики действительно вложат некоторое время и усилия в игры для ПК, поскольку геймеры платят тысячи долларов за оборудование высшего уровня, но сталкиваются с различными проблемами и потерей производительности.
Сравнение видеопамяти NVIDIA по поколениям
GPU | GeForce 40 Series | GeForce 30 Series | GeForce 20 Series | GeForce 10 Series 901 26 |
---|---|---|---|---|
Tier 90-90 | 24 ГБ | 24 ГБ | Н/Д | Н/Д |
80-80 Tier | 16 ГБ | 10-12 ГБ | 8-11 ГБ | 8-11 ГБ |
70-70 Ti Уровень | 12 ГБ | 8 ГБ | 8 ГБ | 8 ГБ |
60-60 Tier Tier | TBA | 8-12 ГБ | 6-8 ГБ | 3-6 ГБ |
50-50 Tier | TBA | 8 ГБ | 4-6 ГБ | 2-4 ГБ |
Сравнение VRAM AMD
GPU | Radeon 7000 Series | Radeon 6000 Series | Series 5000 Series | Series | Series 5000 | серии | серии | серии | . 0126 |
---|---|---|---|---|---|---|---|---|---|
Уровень 900 | 24–20 ГБ | 16 ГБ | Н/Д | ||||||
Уровень 800 | Подлежит уточнению | 16 ГБ | Н/Д | ||||||
Уровень 700 | Подлежит уточнению | 12 ГБ | 8 ГБ | ||||||
Уровень 600 | Подлежит уточнению | 8 ГБ | 6 ГБ | ||||||
500 Tier | TBA | 4–8 ГБ | 4–8 ГБ | ||||||
400 Уровень | уточняется | 4 ГБ | н/д |
Сколько VRAM у вашей видеокарты?
<1 ГБ
2 ГБ
3 ГБ
4ГБ
6 ГБ
8 ГБ
10 ГБ
11 ГБ
12 ГБ
16 Гб
20 ГБ
24 ГБ
24 ГБ+
Возможности опроса ограничены, так как в вашем браузере отключен JavaScript.