Игровые видеокарты geforce: Видеокарты GeForce | NVIDIA
Содержание
Выбор бюджетной видеокарты для игрового ПК в 2022 году
Производительность игрового компьютера зависит от множества самых разных факторов, но самым важным элементом является графический ускоритель. Именно его мощность чаще всего становится «бутылочным горлышком», которое не позволяет добиться запуска условного Cyberpunk 2077 или Far Cry 6 с комфортной частотой кадров. Поэтому ПК-геймеры и разводят ажиотаж именно вокруг выбора видеокарты.
Сложнее всего выбрать видеоускоритель бюджетного класса, поскольку придется мириться с компромиссами, тщательно изучать различия версий одной и той же карты от разных производителей и сравнивать FPS в разных играх, чтобы подобрать оптимальный вариант. А в конечном итоге в современных хитах все равно придется жестко рубить настройки графики.
Чтобы выбор недорогой видеокарты не стал для вас мучением, мы подготовили этот гайд и подобрали самые очевидные варианты.
Заранее уточним, что речь ниже пойдет о сравнении производительности видеокарт в разрешении 1920 x 1080, поскольку о меньшем говорить уже давно неприлично, а о большем в бюджетном сегменте пока не может идти и речи. Плюс к этому все показатели производительности приведены для ПК, в которых быстродействие ограничено именно видеокартой. То есть процессор, оперативная память, накопитель и прочие компоненты подразумеваются высокого уровня, при котором они не будут снижать итоговый результат.
А чтобы разговор был более предметным, сравним производительность наиболее интересных решений в самых требовательных и популярных шутерах современности: Cyberpunk 2077, Halo Infinite, Far Cry 6, Dying Light 2: Stay Human и Battlefield 2042.
NVIDIA GeForce GTX 1050 Ti
Старый, но небесполезный. Именно так можно охарактеризовать NVIDIA GeForce GTX 1050 Ti с 4 ГБ видеопамяти. Видеокарты серии Pascal вышли в далеком 2016 году. Шесть лет — огромный срок для компьютерной индустрии, но и сегодня GTX 1050 Ti все еще является одной из самых популярных моделей в бюджетных игровых сборках.
Залог долголетия GTX 1050 Ti кроется в сочетании целого ряда факторов: успешности архитектуры Pascal, удачном ценовом позиционировании, кризисе полупроводников, майнинг-буме 2017 и 2021 годов.
Palit GeForce GTX 1050 Ti StormX
В 2022 году GeForce GTX 1050 Ti можно назвать видеокартой, которую «по умолчанию» устанавливают в большинство недорогих компьютерных сборок. Она обеспечивает минимально необходимый уровень производительности в большинстве игр. Но отступать уже некуда: возможностей обычной GTX 1050 с 2 или 3 ГБ видеопамяти уже недостаточно.
Что может показать GTX 1050 Ti в самых требовательных играх? В Cyberpunk 2077 можно выжать средние 30 FPS при разрешении 1920 x 1080 и низких настройках. Not great, not terrible: поиграть и даже пройти шутер можно, но особо суперкомфортным это действие назвать нельзя. В Far Cry 6 обеспечивается около 50–60 кадров в секунду на «минималках», и это уже неплохо. Можно даже выбрать средние настройки, не превратив игру в череду стоп-кадров. Для Halo Infinite возможностей GTX 1050 Ti совсем впритык: около 30 FPS на самых низких настройках. Схожая картина и в Dying Light 2: Stay Human. В Battlefield 2042 получается около 50 FPS.
То есть GeForce GTX 1050 Ti является самым базовым вариантом видеокарты, которую можно устанавливать в игровой ПК. Никакого запаса производительности она не обеспечит, а самые требовательные игры сможет вытянуть только на минимальных настройках, да и то со скрипом. Но при желании поиграть все же удастся практически во что угодно.
Из линейки GTX 1050 Ti доступна компактная модель Palit GeForce GTX 1050 Ti StormX.
NVIDIA GeForce GTX 1650
Дальше идет прямой преемник GeForce GTX 1050 — NVIDIA GeForce GTX 1650 с быстрой видеопамятью GDDR6. Она относится к тому же классу, но на одно поколение моложе. Существует несколько версий 1650 с разными чипами и даже разным типом памяти, не говоря уже о многообразии исполнений от вендоров. Но в среднем GTX 1650 уверенно обходит GTX 1050.
В современных игровых хитах GTX 1650 обеспечивает производительность где-то между GTX 1060 с 3 ГБ памяти и GTX 1060 с 6 ГБ памяти. Видеокарта выдаст около 50 кадров в секунду в Cyberpunk 2077. Да, это все еще самые низкие настройки при разрешении Full HD, но кроме каких-то единичных микрофризов уже можно говорить об определенном уровне комфорта с точки зрения плавности. В Far Cry 6 получается еще больше — 60–70 FPS. В Halo Infinite — в районе 50. Если поиграться с настройками в Dying Light 2: Stay Human, то из видеоускорителя можно «выжать» чуть больше 40 FPS. До 70 кадров в секунду показывает Battlefield 2042.
Palit GeForce GTX 1650 Gaming Pro
Таким образом, NVIDIA GeForce GTX 1650 с 4 ГБ памяти способа обеспечить комфортный фреймрейт в любых играх практически безо всяких скидок. Другой вопрос, что все ползунки настроек в наиболее требовательных тайтлах все равно придется выкручивать до упора влево.
В качестве следующего шага на пути к увеличению производительности можно рассмотреть GeForce GTX 1650 Super 4 ГБ, которая обеспечит еще плюс 20–30% в частоте кадров, однако с ее доступностью и наличием не всегда все гладко. Но если вам удалось найти Super-версию не сильно дороже обычной GTX 1650, то она определенно заслуживает внимания.
Серия GTX 1650 представлена картой Palit GeForce GTX 1650 Gaming Pro с двумя вентиляторами.
AMD Radeon RX 560
А что там у «красных»? AMD до сих пор предлагает AMD Radeon RX 560 с 4 ГБ памяти. Она вышла в 2017 году, но позже появилось еще несколько ревизий с разными версиями GPU и памяти. Однозначно следует сторониться модификаций с урезанной до 64-бит шиной памяти: только 128 бит и 4 ГБ.
В 2022 году Radeon RX 560 уже не способен вытянуть все игры. Даже если полностью отрубить спецэффекты, то в Dying Light 2: Stay Human, Cyberpunk 2077, Halo Infinite, Battlefield 2042 едва-едва выходит 30 FPS с неизбежными кратковременными просадками. Far Cry 6 покажет в среднем 40 FPS.
Sinotex Radeon RX 560
«Олдов», привыкших к «стабильным» 30 FPS еще в 2000-х и не избалованных мощными видеокартами и быстрыми мониторами, этими числами не напугаешь. С технической точки зрения ничто не мешает поиграть в вышеперечисленные шутеры.
К тому же AMD Radeon RX 560 является самым недорогой картой из рассматриваемых. Если же вам больше по душе хиты прошлых лет, то нет большого смысла смотреть на что-то более мощное. В частности, ускоритель без труда выдает в районе 50 FPS при средних настройках в Witcher 3 Wild Hunt.
Бюджетный Radeon RX 560 можно купить в исполнении Sinotex.
AMD Radeon RX 570
Видеокарта AMD Radeon RX 570, появившаяся в том же 2017-м, предлагает «честную» 256-битную шину, 4 или 8 ГБ памяти, а также куда более производительный, чем у RX 560, графический процессор.
Radeon RX 570 при минимальных настройках способен обеспечить в среднем 50 FPS в Cyberpunk 2077, 60 в Battlefield 2042, 50 в Dying Light 2: Stay Human и более 60 в Far Cry 6. Только Halo Infinite является «крепким орешком» для видеокарты: получить более 30–35 кадров в секунду вряд ли получится.
AMD Radeon RX 570
Но проблема AMD Radeon RX 570 заключается в другом: к текущему времени она уже практически полностью пропала из магазинов. В целом же RX 570 можно назвать неплохой альтернативой NVIDIA GeForce GTX 1650. Если удастся найти ее за разумную цену (то есть не сильно дороже GTX 1650), то можно брать.
AMD Radeon RX 6500 XT
Radeon RX 560 и Radeon RX 570 являются весьма древними «видюхами», пусть и до сих пор условно актуальными. Что AMD предлагает из более современной линейки? Radeon RX 5500 уже не найти в продаже, хоть он и вышел на два года позже — в 2019-м. Зато есть AMD Radeon RX 6500 XT. Это совсем новая модель, анонсированная в января 2022 года. Что она может предложить? Архитектуру RDNA 2, техпроцесс 6 нм, 64-битную шину и 4 ГБ памяти GDDR6.
На практике RX 6500 XT обеспечивает производительность на уровне RX 5500 XT. Также новинка чуть-чуть обходит NVIDIA GeForce GTX 1650 Super, хотя разница чаще всего укладывается в размер погрешности.
AMD Radeon RX 6500 XT
Если говорить более конкретно, то от RX 6500 XT можно ожидать в районе 50–60 FPS в Cyberpunk 2077, 60 FPS в Halo Infinite, 30–40 FPS в Dying Light 2: Stay Human, 60–70 FPS в Far Cry 6 и 80–90 в Battlefield 2042. Напомним, все это на самых низких настройках видеоряда в разрешении 1920 x 1080.
То есть даже с учетом нулевого прогресса относительно RX 5500 XT новинка в лице RX 6500 XT выглядит весьма привлекательно с учетом своего ценового позиционирования и общего состояния рынка видеокарт. Но при покупке этой модели следует помнить об одном подводном камне: здесь используется интерфейс PCI Express 4.0 x4, то есть всего четыре линии PCI-E версии 4.0. Все бы ничего, пропускной способности в таком режиме вполне достаточно, но если установить RX 6500 XT в материнскую плату с поддержкой только PCI-E 3.0, то можно лишиться примерно 10% быстродействия. То есть покупать RX 6500 XT имеет смысл только при сборке ПК на базе новых платформ.
Выводы
В 2022 году ситуация с доступностью видеокарт остается неоднозначной. Да, ажиотаж майнинга постепенно спадает, и это положительно сказывается на ценах и наличии графических ускорителей. Но возникли новые проблемы с логистикой и нестабильным курсом валют. Так что, как и прежде, конечный выбор во многом зависит от того, что и по какой цене удалось найти к моменту сборки компьютера.
Мы рассмотрели самые популярные бюджетные видеокарты от NVIDIA и AMD, которые можно найти в продаже. Все они в той или иной степени позволят играть даже в столь требовательные игры как Cyberpunk 2077, Halo Infinite, Far Cry 6, Dying Light 2: Stay Human и Battlefield 2042. Но только в разрешении Full HD и при минимальных (с редкими исключениями) настройками графики.
Если же хочется побаловаться видеонастройками или, не дай Бог, включить трассировку лучей, то придется смотреть видеокарты в другом ценовом диапазоне. О нем и пойдет речь в следующей части гайда.
Развитие видеокарт в 2000-х годах / Хабр
Продолжая историю развития видеокарт из предыдущей — статьи, видеоадаптеры 2000-х годов.
VSA-100 и новое поколение Voodoo
Чипсет VSA-100 (Voodoo Scalable Architecture — масштабируемая архитектура Voodoo) был выпущен компанией 3dfx в июне 2000 года. Первой видеокартой, использовавшей данный чип (VSA-100х2) стала Voodoo5 5500. Изготовленная по 250-нм техпроцессу, с 14 миллионами транзисторов. Объем памяти SDRAM доходил до 64 Мб, с 128-битной шиной. Частота графического процессора и памяти составляла 166 МГц. Впервые в видеокартах Voodoo поддерживался 32-битный цвет в 3D, а также текстуры с высоким разрешением 2048×2048 точек. Для сжатия применялись алгоритмы FXT1 и DXTC. Особенностью Voodoo5 5500 была высокая производительность при использовании сглаживания.
Видеокарта выпускалась с разными интерфейсами, такими, как AGP, PCI и т.д. Также была доступна версия под Macintosh, имеющая два разъема (DVI и VGA).
Осенью того же года 3dfx выпустила Voodoo4 4500 с объемом памяти 32 Мб, использовавшей один чип VSA-100. Модель оказалась довольно медленной и значительно уступала GeForce 2 MX и Radeon SDR.
Компания 3Dfx анонсировала выход производительной видеокарты Voodoo5 6000 на 4-х чипах VSA-100 и с 128 Мб памяти. Но окончательно реализовать проект так и не удалось — серьезные финансовые трудности обанкротили 3Dfx.
GeForce 2
В 2000-2001 годах компания NVIDIA выпустила серию видеокарт GeForce 2 (GTS, Ultra, Pro, MX и т. д.). У этих видеоадаптеров было 256-битное ядро — одно из самых производительных ядер того времени.
Базовой моделью стала GeForce 2 GTS (GigaTexel Shading), кодовое имя NV15. Данная видеокарта была изготовлена по 180-нм техпроцессу и содержала 25 миллионов транзисторов. Объем памяти DDR SGRAM составлял 32 Мб или 64 Мб с частотой 200 МГц и 128-битной шиной. У адаптера имелось 4 пиксельных конвейера. NV15 включала в себя полную поддержку DirectX 7, OpenGL 1.2, как и аппаратную обработку геометрии и освещения (T&L).
Radeon DDR и SDR
Компания ATI не отставала от прогресса и в 2000 году выпустила процессор Radeon R100 (изначально назывался Rage 6). Он изготавливался по 180-нм техпроцессу и поддерживал технологию ATI HyperZ.
На основе R100 вышли видеокарты Radeon DDR и SDR.
Radeon DDR выпускался с объемом видеопамяти 32 Мб или 64 Мб. Частоты ядра и памяти составляли 183 МГц, использовалась 128-битная шина. В роли интерфейса выступал AGP 4x. У видеокарты было 2 пиксельных конвейера.
Упрощенная версия SDR отличалась от Radeon DDR типом используемой памяти и пониженными частотами (166 МГц). Объем памяти у Radeon SDR предоставлялся только на 32 Мб.
Radeon 8500 и Radeon 7500
В 2001 году на базе RV200 вышли два чипа Radeon 8500 и Radeon 7500.
В Radeon 8500 были собраны новейшие наработки ATI, он оказался очень быстрым. Изготавливался по 150-нм техпроцессу, содержал 60 миллионов транзисторов. Частоты ядра и памяти составляли 275 МГц. Использовалась 128-битная шина. Объем памяти DDR SDRAM предлагался в двух вариантах: 64 Мб и 128 Мб. Пиксельных конвейеров было 4.
Radeon 7500 изготавливался по тому же 150-нм техпроцессу, но с 30 миллионами транзисторов. Ядро работало на частоте 290 МГц, а память на 230 МГц. Пиксельных конвейеров было 2.
GeForce 3
В 2001 году вышли графические процессоры GeForce 3 с кодовым названием NV20. Процессор выпускался по 150-нм техпроцессу. Объем памяти предлагался на 64 Мб и на 128 Мб. Шина была 128-битной и состояла из четырех 32-битных контроллеров. Ядро работало на частоте 200 МГц, а память на частоте 230 МГц. Пиксельных конвейеров насчитывалось 4. Производительность составляла 800 миллиардов операций/сек. Пропускная способность памяти была 7,36 Гб/с
Устройство поддерживало nFinite FX Engine, позволяющие создавать огромное количество различных спецэффектов. Была улучшенная архитектура памяти LMA (Lightspeed Memory Architecture).
Линейка видеокарт состояла из модификаций GeForce 3, GeForce 3 Ti 200 и Ti 500. Они отличались по тактовой частоте, производительности и пропускной способности памяти.
У GeForce 3 Ti 200: 175 МГц ядро, 200 МГц память; 700 миллиардов операций/сек; 6,4 Гб/с пропускная способность.
У GeForce 3 Ti 500: 240 МГц ядро и 250 МГц память; 960 миллиардов операций/сек; 8,0 Гб/с пропускная способность.
GeForce 4
Следующей видеокартой компании NVIDIA стала GeForce 4, которая вышла в 2002 году. C таким названием выпускались два типа графических карт: высокопроизводительные Ti (Titanium) и бюджетные MX.
Линейка GeForce 4 Ti была представлена моделями Ti 4400, Ti 4600, и Ti 4200. Видеокарты отличались тактовыми частотами ядра и памяти. Объем видеопамяти составлял 128 Мб (у Ti 4200 предлагался вариант и на 64 Мб). В Titanium использовался 128-битный 4-канальный контроллер памяти с LightSpeed Memory Architecture II, насчитывалось 4 блока рендеринга, 8 текстурных блоков, 2 T&L, имелась подсистема сглаживания Accuview и шейдерный движок nFiniteFX II, обеспечивающий полную поддержку DirectX 8.1 и OpenGL 1.3. Модель GeForce 4 Ti 4200 была самой распространенной за счет высокой производительности по приемлемой цене.
GeForce 4 MX наследовали архитектуру GeForce 2 (с повышенным быстродействием). Они базировались на чипе NV17, изготовленного по 150-нм техпроцессу и состоящего из 27 миллионов транзисторов. Объем видеопамяти составлял 64 Мб. У графического процессора было 2 блока рендеринга, 4 текстурных, 1 блок T&L, 128-битный 2-канальный контроллер памяти с LightSpeed Memory Architecture II. Чип также обладал подсистемой сглаживания Accuview.
Radeon 9700 Pro
Летом 2002 года ATI выпустила чип R300, который изготавливался по 150-нм техпроцессу и содержал около 110 миллионов транзисторов. У него было 8 пиксельных конвейеров. Также чип поддерживал улучшенные методы сглаживания.
На базе R300 вышла видеокарта Radeon 9700 с тактовыми частотами ядра 325 МГц и памяти 310 МГц. Объем памяти составлял 128 Мб. Шина памяти была 256-битная DDR.
В начале 2003 года Radeon 9700 сменила видеокарта Radeon 9800. Новые решения были построены на чипе R350, с увеличением тактовых частот и доработкой шейдерных блоков, контроллера памяти.
GeForce FX
GeForce FX — пятое поколение графических процессоров, разработанных и выпущенных компанией NVIDIA с конца 2002 до 2004 годов. Одна из первых видеокарт серии GeForce FX обладала улучшенными методами сглаживания и анизотропной фильтрации. Она поддерживала вершинные и пиксельные шейдеры версии 2.0. Благодаря 64-битному и 128-битному представлению цвета, повысилось качество ярких изображений. Чип NV30 был изготовлен по 130-нм техпроцессу и работал с шиной на 128-бит AGP 8x, поддерживая память DDR2.
GeForce FX была представлена в разных модификациях: еntry-level (5200, 5300, 5500), mid-range (5600, 5700, 5750), high-end (5800, 5900, 5950), еnthusiast (5800 Ultra, 5900 Ultra, 5950 Ultra). Использовалась шина на 126-бит и на 256-бит.
На базе NV30 было создано топовое устройство нового поколения — видеокарта GeForce FX 5800. Объем видеопамяти достигал 256 Мб, частота ядра — 400 МГц, а памяти — 800 МГц. В 5800 Ultra частота ядра повысилась до 500 МГц, а памяти — до 1000 МГц. Первые карты на основе NV30 оснащались инновационной системой охлаждения.
GeForce 6 Series
Развитие видеокарт активно продолжалось и в 2004 году вышел следующий продукт компании — GeForce 6 Series (кодовое название NV40).
Чип NV40 производился также по 130-нм техпроцессу, что не помешало ему стать более экономичным. Модификация пиксельных конвейеров дала возможность обрабатывать до 16 пикселей за такт. Всего было 16 пиксельных конвейеров. Видеокарты поддерживали пиксельные и вершинные шейдеры версии 3.0, технологию UltraShadow (прорисовка теней). Кроме этого, GeForce 6 Series с помощью технологии PureVideo декодировали видео форматов H.264, VC-1 и MPEG-2. NV40 работал через 256-битную шину, при этом использовались очень быстрые модули памяти типа GDDR3.
Одна из первых моделей, видеокарта GeForce 6800 была весьма производительной и тянула самые новые игры того времени. Она работала как через интерфейс AGP, так и через шину PCI Express. Частота ядра составляла 325 МГц, а частота памяти была 700 МГц. Объем памяти доходил 256 Мб или 512 Мб.
Radeon X800 XT
Компания ATI находилась в более выгодном положении. В 2004 году компания представила 130-нм чип R420 (усовершенствованная версия R300). Пиксельные конвейеры были разделены на четыре блока по четыре конвейера в каждом (в сумме 16 пиксельных конвейеров). Увеличилось до 6 количество вершинных конвейеров. Поскольку R420 не поддерживал работу шейдеров третьего поколения, он работал с обновленной технологией HyperZ HD.
Самая мощная и производительная видеокарта новой линейки Radeon была X800 XT. Карта оснащалась памятью типа GDDR3 объёмом 256 Mб и разрядностью шины 256-бит. Частота работы достигала 520 МГц по ядру и 560 МГц по памяти. Radeon X800 XT продавались в двух исполнениях: AGP и PCI Express. Помимо обычной версии существовал Radeon X800 XT Platinum Edition, обладающий более высокими частотами чипа и памяти.
GeForce 7800 GTX
В 2005 году вышел чип G70, который лег в основу видеокарт серии GeForce 7800. Количество транзисторов увеличилось до 302 миллионов.
Вдвое увеличилось количество пиксельных конвейеров — до 24 штук. В каждый конвейер были добавлены дополнительные блоки ALU, отвечающие за обработку наиболее популярных пиксельных шейдеров. Таким образом возросла производительность чипа в играх, делающих упор на производительность пиксельных процессоров.
GeForce 7800 GTX стала первой видеокартой на базе G70. Частота ядра составляла 430 МГц, памяти — 600 МГц. Использовалась быстрая GDDR3, а также 256-битная шина. Объем памяти составлял 256 Мб или 512 Мб. GeForce 7800 GTX работала исключительно через интерфейс PCI Express х16, который окончательно начал вытеснять устаревающий AGP.
GeForce 7950 GX2
Событием 2006 года для компании NVIDIA стал выпуск первой двухчиповой видеокарты GeForce 7950, созданной по 90-нм техпроцессу.Nvidia 7950 GX2 имела по одному чипу G71 на каждой из плат. Ядра видеокарты работали на частоте 500 МГц, память — на частоте 600 МГц. Объем видеопамяти типа GDDR3 составлял 1 Гб (по 512 Мб на каждый чип), шина 256-бит.
В новой карте было оптимизировано энергопотребление и доработана система охлаждения. Выпуск 7950 GX2 стал началом развития технологии Quad SLI, позволяющей одновременно использовать мощности нескольких видеокарт для обработки трёхмерного изображения.
Radeon X1800 XT, X1900
На базе R520 была разработана видеокарта Radeon X1800 XT. Карта оснащалась памятью типа GDDR3 объемом 256 Мб или 512 Mб, работающей на частоте 750 МГц. Использовалась 256-битная шина.
Видеокарты Radeon X1800 XT недолго пробыли на рынке. Вскоре им на смену пришли адаптеры серии Radeon X1900 XTХ на базе чипа R580. Процессором полностью поддерживались на аппаратном уровне спецификации SM 3.0 (DirectX 9.0c) и HDR-блендинг в формате FP16 с возможностью совместного использования MSAA. В новом чипе было увеличено количество пиксельных конвейеров — до 48. Частоты ядра составляла 650 МГц, а памяти — 775 МГц.
Еще через полгода вышел чип R580+ с новым контроллером памяти, работающий со стандартом GDDR4. Частота памяти была увеличена до 2000 МГц, при этом шина оставалась 256-битной. Основные характеристики чипа остались прежними: 48 пиксельных конвейеров, 16 текстурных и 8 вершинных конвейеров. Частота ядра составляла 625 МГц, памяти было больше — 900 МГц.
GeForce 8800 GTX
В 2006 году на базе процессора G80 было выпущено несколько видеокарт, самой мощной из которых являлась GeForce 8800 GTX. G80 был одним из самых сложных существующих чипом того времени. Он выпускался по 90-нм техпроцессу и содержал 681 миллион транзисторов. Ядро работало на частоте 575 МГц, память — на частоте 900 МГц. Частота унифицированных шейдерных блоков составляла 1350 МГц. У GeForce 8800 GTX было 768 Мб видеопамяти GDDR3, а ширина шины составляла 384-бит. Поддерживались новые методы сглаживания, которые позволили блокам ROP работать с HDR-светом в режиме MSAA (Multisample anti-aliasing). Получила развитие технология PureVideo.
Архитектура GeForce 8800 GTX оказалась особенно эффективной и на протяжении нескольких лет являлась одной из самых быстрых видеокарт.
Radeon HD2900 XT, HD 3870 и HD 3850
В 2007 года была представлена флагманская видеокарта Radeon HD2900 XT на базе чипа R600. Частота ядра видеокарты составляла 740 МГц, памяти GDDR4 — 825 МГц. Использовалась 512-битная шина памяти. Объем видеопамяти достигал 512 Мб и 1 Гб.
Более успешной разработкой вышел процессор RV670, выпущенный в том же году. Архитектурой он почти не отличался от предшественника, но изготавливался по 55-нм техпроцессу и с шиной памяти 256-бит. Появилась поддержка DirectX 10.1 и Shader Model 4.1. На базе процессора производились видеокарты Radeon HD 3870 (частота ядра 775 МГц, памяти 1125 МГц) и Radeon HD 3850 (частота ядра 670 МГц, памяти 828 МГц) с объемом видеопамяти 256 Мб и 512 Мб и шиной 256-бит.
GeForce 9800
Чип G92 лег в основу GeForce 9800 GTX — одной из самых быстрых и доступных видеокарт. Он изготавливался по 65-нм техпроцессу. Частота ядра составляла 675 МГц, частота памяти — 1100 МГц, а шина — 256-бит. Объем памяти предлагался в двух вариантах: на 512 Мб и на 1 Гб. Чуть позже появилась модель GTX+, которая отличалась 55-нм техпроцессом и частотой ядра — 738 МГц.
В данной линейке также появилась очередная двухчиповая видеокарта GeForce 9800 GX2. Каждый из процессоров имел спецификации, как у GeForce 8800 GTS 512 Мб, только с разными частотами.
GeForce GTX 280 и GTX 260
В 2008 году компания NVIDIA выпустила чип GT200, который использовался в видеокартах GeForce GTX 280 и GTX 260. Чип производился по 65-нм техпроцессу и содержал 1,4 миллиарда транзисторов, обладал 32 ROP и 80 текстурными блоками. Шина памяти увеличилась до 512-бит. Также была добавлена поддержка физического движка PhysX и платформы CUDA. Частота ядра видеокарты составляла 602 МГц, а памяти типа GDDR3 — 1107 МГц.
В видеокарте GeForce GTX 260 использовалась шина GDDR3 448-бит. Частота ядра достигала 576 МГц, а памяти — 999 МГц.
Radeon HD 4870
Старшая видеокарта новой линейки получила название Radeon HD 4870. Частота ядра составляла 750 МГц, а память работала на эффективной частоте 3600 МГц. С новой линейкой видеокарт компания продолжила свою новую политику выпуска устройств, которые могли успешно конкурировать в Middle-End-сегменте. Так, Radeon HD 4870 стал достойным конкурентом видеокарты GeForce GTX 260. А место лидера линейки HD 4000 вскоре заняло очередное двухчиповое решение Radeon HD 4870X2. Сама архитектура видеокарты соответствовала таковой у Radeon HD 3870X2, не считая наличия интерфейса Sideport, напрямую связывающего два ядра для наиболее быстрого обмена информацией.
GeForce GTX 480
В 2010 году NVIDIA представила GF100 с архитектурой Fermi, который лег в основу видеокарты GeForce GTX 480. GF100 производился по 40-нм техпроцессу и получил 512 потоковых процессоров. Частота ядра была 700 МГц, а памяти — 1848 МГц. Ширина шины составила 384-бит. Объем видеопамяти GDDR5 достигал 1,5 Гб.
Чипом GF100 поддерживались DirectX 11 и Shader Model 5.0, а также новая технология NVIDIA Surround, позволяющая развернуть приложения на три экрана, создавая тем самым эффект полного погружения.
Чипы Cypress и Cayman
Компания AMD выпустила 40-нм чип Cypress. Разработчики компании решили поменять подход и не использовать исключительно буквенно-цифровые значения. Поколению чипов начали присваивать собственные имена. Сам принцип архитектуры Cypress продолжал идеи RV770, но дизайн был переработан. Вдвое увеличилось количество потоковых процессоров, текстурных модулей и блоков ROP. Появилась поддержка DirectX 11 и Shader Model 5.0. В Cypress появились новые методы сжатия текстур, которые позволили разработчикам использовать большие по объему текстуры. Также AMD представила новую технологию Eyefinity, полным аналогом которой позже стала технология NVIDIA Surround.
Чип Cypress был реализован в серии видеокарт Radeon HD 5000. Вскоре AMD выпустила и двухчиповое решение Radeon HD 5970. В целом Cypress оказался очень успешным.
Серия видеокарт Radeon HD 6000, выпущенная в конце 2010 года, была призвана конкурировать с акселераторами GeForce GTX 500. В основе графических адаптеров лежал чип Cayman. В нем применялась немного другая архитектура VLIW4. Количество потоковых процессоров составляло 1536 штук. Возросло количество текстурных модулей — их стало 96. Также Cayman умел работать с новым алгоритмом сглаживания Enhanced Quality AA. Ширина шины памяти чипа составляла 256-бит. Видеокарты использовали GDDR5-память.
GeForce GTX 680
Начиная с 2011 года NVIDIA выпустила поколение графических ускорителей. Одной из примечательных моделей была видеокарта GeForce GTX 680, основанная на чипе GK104, производившемуся по 28-нм техпроцессу. Частота работы ядра 1006 МГц, частота работы памяти 6008 МГц, шина 256-бит GDDR5.
В 2013 года компания представила чип GK110, на котором основываются флагманские видеокарты GeForce GTX 780 и GeForce GTX Titan. Использовалась шина 384-бит GDDR5, а объем памяти повысился до 6 Гб.
Обзор Nvidia RTX 4070 Ti
Когда вы покупаете по ссылкам на нашем сайте, мы можем получать партнерскую комиссию. Вот как это работает.
Переименованная и невыпущенная RTX 4080 12 ГБ здесь, представленная этой картой MSRP Gigabyte, обеспечивающей частоту кадров RTX 3090.
(Изображение: © Будущее)
Наш вердикт
Nvidia спасла графический процессор Ada третьего уровня… просто. С более низкой ценой RTX 4070 Ti имеет больше смысла, чем RTX 4080 за 89 долларов. 9, а с игровой производительностью уровня RTX 3090 под этим кожухом с тремя вентиляторами скрывается много энергии. Это также карта, которая заставит большинство геймеров дважды подумать о конкурирующих графических процессорах AMD RDNA 3.
Для
- Производительность на уровне RTX 3090
- Генерация кадров остается мощным оружием
- Прохладный
- Очень эффективный
Против
- Слабая система памяти
- Лишь немного впереди RTX 3080…
- …за большие деньги
ПК-геймер прикроет вашу спину
Наша опытная команда посвящает много часов каждой проверке, чтобы действительно добраться до сути того, что для вас важнее всего. Узнайте больше о том, как мы оцениваем игры и оборудование.
Nvidia RTX 4070 Ti — это карта, которая принесет зеленой команде много денег. Во-первых, это графический процессор, способный обеспечить игровую производительность на уровне или выше RTX 3090 (открывается в новой вкладке), а также регулярно превосходит более дорогие новые видеокарты AMD RDNA 3. Важно отметить, что для людей с деньгами Nvidia это также кусочек кремния графического процессора Ada, который лишь немного больше, чем чип внутри RTX 3050, но продается за головокружительные 79 долларов.9.
Эти площади кристалла и цифры цен складываются в GPU, который должен быть относительно дешевым для производства Nvidia, а затем будет предлагать высокую маржу, чтобы порадовать как акционеров, так и Джен-Хсун.
Итак, высокая производительность и высокая маржа; Святой Грааль для любой компании по производству видеокарт. А когда вы добавите двойное преимущество DLSS 3 и его черной магической технологии генерации кадров, вы также получите возможность использовать гиперболические маркетинговые цифры производительности и при этом иметь возможность подкрепить их фактическими данными тестов.
Это также карта, представляющая что-то новое от Nvidia — что-то вроде готовности признать ошибку. Первоначально эта карта называлась RTX 4080 12 ГБ, пока Nvidia не выпустила ее (открывается в новой вкладке) с уже изготовленными устройствами, которые находятся на складах партнеров в ожидании отправки. Зеленая команда наконец поняла, что наличие двух очень разных графических процессоров под одним и тем же именем сбивает с толку, хотя только после того, как об этом уже было объявлено, и индустрия преувеличила коллективный плевок.
Теперь он переименован, и Nvidia RTX 4070 Ti, урожденная RTX 4080 12 ГБ, наконец-то находится на нашем тестовом стенде с точно такими же характеристиками, как и раньше, но по более низкой цене на 100 долларов. Для RTX 4070 Ti не существует Founders Edition, поэтому у нас есть карта Gigabyte RTX 4070 Ti Gaming OC уровня MSRP (открывается в новой вкладке) для тестирования новейшего графического процессора Nvidia.
Вердикт Nvidia RTX 4070 Ti
(Изображение предоставлено в будущем)
Хороша ли RTX 4070 Ti?
Прекращение выпуска RTX 4080 12 ГБ и последующая перепродажа, а также переоценка были лучшим, что случилось с этим графическим процессором Ada третьего уровня. Теперь и навсегда, чтобы быть известной как RTX 4070 Ti, это карта, которая теперь делает невозможным рекомендовать AMD RX 7900 XT (открывается в новой вкладке), что делает это дорогое предложение RDNA 3 еще более неприятным, чем оно уже было.
Если бы, как RTX 4080 12 ГБ, он был бы выпущен раньше первых графических процессоров AMD на чиплетах по первоначальной цене, он бы получил удар, но теперь он и дешевле, и практически такой же производительный. А в некоторых случаях и больше.
Это оказало такое же негативное влияние на мое отношение к карте RTX 4080 16 ГБ стоимостью более 1200 долларов . В среднем он примерно на 21% медленнее на уровне 4K, гораздо ближе к 1440p, но с фиксированной ценой это как минимум на 33% дешевле. Я не знаю, как вы рекомендуете кому-то тратить деньги, которые розничные торговцы просят за RTX 4080, когда у вас есть гораздо более мощная карта в RTX 409.0 (откроется в новой вкладке) или гораздо более дешевую версию с RTX 4070 Ti.
RTX 4070 Ti впечатляет даже без апскейлинга, а с ним просто поражает.
Я действительно чувствую, что цены на эти нелюбимые карты AMD и Nvidia должны быть скорректированы раньше, чем позже. По крайней мере, зеленая команда нашла что-то еще, что можно сделать с ненужным кремнием RTX 4080 благодаря новому уровню GeForce Now Ultimate (открывается в новой вкладке).
С точки зрения игр, производительность 4K RTX 4070 Ti впечатляет даже без апскейлинга, а с ним просто поразительна. Но именно производительность 1440p действительно бросается в глаза, особенно по сравнению с другими графическими процессорами вокруг него. Разрыв между ним и RTX 4080 сокращается, и он может даже показывать более высокую частоту кадров, чем оба лучших графических процессора AMD RDNA 3 при разрешении 1440p, где дополнительные пулы памяти Radeon на 20 ГБ и 24 ГБ не могут им помочь.
Возможно, я надеялся на большую дельту производительности по сравнению с RTX 3080 (открывается в новой вкладке), картой, которую она действительно заменяет из стека Ampere, особенно с учетом того, что ее цена на 100 долларов выше. Список ретроградных сравнительных характеристик также разочаровывает — то, что раздражало нас, когда он был первоначально представлен под видом RTX 4080 12 ГБ (открывается в новой вкладке) — и действительно кажется, что эта 192-битная конфигурация памяти скупа на уровне Скруджа.
Но все же, если оставить в стороне DLSS и генерацию кадров, RTX 309Уровни производительности RTX 4070 Ti в стиле 0 трудно игнорировать. В прошлом году это был монструозный графический процессор, и здесь у нас есть карта, которая почти вдвое дешевле с практически такими же игровыми возможностями.
Учитывая текущее состояние рынка, эту видеокарту я бы предпочел любой другой, кроме RTX 4090. Каковы характеристики RTX 4070 Ti?
RTX 4070 Ti использует совершенно новый графический процессор Ады Лавлейс, AD104. Это само по себе было одной из основных причин испуга по поводу того, что ее называют еще одной RTX 4080, несмотря на то, что в ее основе был совершенно другой чип. Это гораздо меньший графический процессор, насчитывающий 294,5 мм2 по сравнению с ~378,6 мм2 у AD103 в реальной RTX 4080. Он также оснащен полным ядром AD104 (не считая нескольких декодеров), где единственный AD103, который мы видели до сих пор, был чипом, на 95% отсутствующим дополнение ядер CUDA.
Внутри этого полноценного графического процессора AD104 размещено 7680 ядер CUDA, объединенных в 60 потоковых мультипроцессоров (SM), с 80 ROP, 240 тензорными ядрами четвертого поколения и 60 ядрами RT третьего поколения.
Проведите по экрану для горизонтальной прокрутки
Ячейка заголовка — столбец 0 | RTX 4070 Ti | RTX 3080 12GB | |||
---|---|---|---|---|---|
GPU | AD104 | 0GA102 | Архитектура | Ада Лавлейс | Ампер |
Литография | TSMC 4N | Samung 8N | |||
Ядра CUDA | 7680 | 8960 | |||
SM | |||||
Ядра RT | 60 | 70 | |||
Тензорные ядра | 240 | 280 | |||
ROP 50 | 40904 801004 | 96 | |||
Кэш второго уровня | 49 152 КБ | 6 144 КБ | |||
Повышение тактовой частоты | 2610 МГц | 1710 МГц | |||
Память | 12 ГБ GDDR6X | 12 ГБ GDDR6X | |||
Интерфейс памяти | 320 бит | ||||
Пропускная способность памяти | 504 ГБ/с | 912 ГБ/с | |||
Размер кристалла | 294,5 мм² | ||||
Транзисторы | 35. 8Б | 28.3Б | |||
ТГП | 285 Вт | 350 Вт | |||
Цена | 799 долларов | 799 долларов |
лист
ускорение поколения, которое мы видели на мощном RTX 4090 по сравнению со своим высококлассным предшественником. Фактически, по сравнению с оригинальной RTX 3080 или слегка измененной (и сопоставимой по цене) 12-гигабайтной RTX 3080, вы видите определенный шаг назад с точки зрения конфигурации графического процессора.
В этой RTX 4070 Ti на 1280 ядер CUDA меньше, и, хотя Nvidia, вероятно, теперь захочет переконвертировать эту карту как карту, которую теперь не следует сравнивать с графическими процессорами класса xx80 предыдущего поколения, трудно не рассматривать это как шаг назад. Конечно, архитектуры Ada и Ampere различаются, но не настолько, чтобы ядра CUDA отличались сами по себе.
Откуда же взялась дополнительная производительность Ады? Реальный переход от Ampere к Ada связан с литографией TSMC 4N, обеспечивающей очень высокие тактовые частоты даже для самых больших графических процессоров Ada, а огромное увеличение кэш-памяти L2 Nvidia заставляет их втиснуться в каждый чип.
По сравнению с RTX 3080 мы говорим о графическом процессоре, который в среднем работает на 1 ГГц быстрее и имеет практически в 10 раз больше кэш-памяти. Ранее я подробно рассказывал о полной архитектуре графического процессора Ады Лавлейс (открывается в новой вкладке) в моем RTX 409.0, но на самом деле это не фундаментальное изменение в ядрах, которое обеспечивает производительность серии RTX 40, а сочетание высоких тактовых частот и кэш-памяти. 1 из 2 Ядра еще больше повышают частоту кадров.
Количество ядер CUDA — не единственное понижение поколения. Система памяти RTX 4070 Ti больше похожа на систему памяти RTX 3060 12 ГБ (открывается в новой вкладке), чем на RTX 3080 12 ГБ. Конечно, у него такой же объем фактической видеопамяти, но он работает на агрегированных 192-битная шина памяти, состоящая из шести 32-битных контроллеров памяти, вместо 320-битной шины старой карты. Однако вы получаете уровни пропускной способности RTX 3070 благодаря тому, что он использует память GDDR6X, работающую на скорости 21 Гбит/с, но все это создает ощущение, что это графический процессор намного ниже, когда речь идет об общих характеристиках.
Но Nvidia не структурирует свои графические процессоры по базовым конфигурациям ядер, она смотрит на необработанные показатели производительности и маркирует карты в соответствии с частотой кадров, а не спецификациями. Я думаю, именно поэтому вы попадаете в беспорядок, когда он предлагает пару карт RTX 4080 с совершенно разными графическими чипами внутри них.
Производительность Nvidia RTX 4070 Ti
(Изображение предоставлено в будущем)
Как работает RTX 4070 Ti?
Возможно, самое впечатляющее, что можно сказать о RTX 4070 Ti, это то, что он очень часто находится на уровне или быстрее, чем RTX 3090. Когда вы думаете, что это графический процессор последнего поколения за 1500 долларов, который выглядит как отличное поколение рост производительности, особенно при максимальном разрешении 4K.
Что может быть менее захватывающим, так это то, что, когда вы просто говорите в терминах растеризованных игр, это не намного быстрее, чем старая, более дешевая RTX 3080 10 ГБ при 4K. Это на быстрее, особенно когда вы добавляете в уравнение эти ядра RT третьего поколения, но ясно, что более высокие тактовые частоты и больший объем кэш-памяти L2 должны усердно работать, чтобы дать ему преимущество по частоте кадров по сравнению со старой картой Ampere.
Производительность в играх 4K
Изображение 1 из 9
(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее) (Изображение предоставлено: Будущее) (Изображение предоставлено: Будущее) (Изображение предоставлено: Будущее)
Тестовая установка PCG
Процессор: Intel Core i9 12900K
Материнская плата: Asus ROG Z690 Maximus Hero
Кулер: Corsair h200i RGB
5 RGB DGB Zkill 4. 90 DR5-5600
Хранение : 1 ТБ WD Black SN850, 4 ТБ Sabrent Rocket, 4 кв. ром ES07D03
Только представьте, насколько хороша была бы эта карта, если бы она использовала урезанный GPU AD103 с тем же количеством ядер, что и RTX 3080, и с той же шиной памяти.
Гораздо более позитивно это выглядит в сравнении с новыми картами AMD RDNA 3, RX 7900 XTX (открывается в новой вкладке) и RX 7900 XT (открывается в новой вкладке). Как правило, он медленнее, чем лучший графический процессор Radeon, но по сравнению с еще более дорогим RX 7900 XT RTX 4070 Ti регулярно демонстрирует более высокую производительность в 4K.
Это лидерство Nvidia более стабильно на уровне 1440p, где дополнительная видеопамять Radeon не может дать преимущество графическим процессорам RDNA 3 и даже AMD RX 79.00 XTX иногда оказывается позади карты GeForce третьего уровня. Это настоящее перо в технологической шапке архитектуры Nvidia, и это до того, как мы перейдем к каким-либо махинациям с апскейлингом, которые любая сторона разрыва графического процессора может предложить сверх базовой графической производительности.
Игровая производительность 1440p
Изображение 1 из 9
(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее) (Изображение предоставлено: Будущее) (Изображение предоставлено: Будущее) (Изображение предоставлено: Будущее)
Графический процессор AD104 еще раз подчеркивает, насколько эффективна номинально 4-нанометровая архитектура Ады Лавлейс. В среднем игровом режиме RTX 4070 Ti работает значительно ниже отметки 300 Вт и предлагает более высокую производительность на ватт, чем все, кроме RTX 4080. Это одно место, где он уверенно опережает RTX 3080 и архитектуру Ampere в целом.
С точки зрения температуры, несмотря на то, что это карта с двумя слотами, а не с тремя слотами, эта карта Gigabyte RTX 4070 Ti с тремя вентиляторами также работает впечатляюще прохладно. Я не видел, чтобы температура превышала 60°C ни в одном из моих тестов. Я имею в виду, что это может быть «просто» двухслотовый кулер, но это все равно означает, что вы получаете реальную массу радиатора, прикрепленного к крошечной печатной плате RTX 4070 Ti, на которой он установлен, и в реальном выражении это не так. гораздо более легкий, чем коренастый RTX 4080 Founders Edition.
Производительность системы
Изображение 1 из 5
(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее) Присутствующие материалы DLSS 3 / Frame Gen RTX 4070 Ti — очень способный исполнитель, но еще раз мощность технологии масштабирования Nvidia нелепо хороша. Я продолжаю пытаться увидеть, где технология генерации кадров терпит неудачу, но я не могу этого сделать. Каждый раз, когда я говорю: «Ага, вот он, красноречивый артефакт поддельных фреймов ИИ!» Затем я проверяю нативный рендеринг, и он выглядит точно так же. Если не хуже.
А благодаря более реалистичной производительности масштабированных кадров и плавности интерполяции кадров, сгенерированных искусственным интеллектом, улучшение производительности впечатляет там, где доступен DLSS 3. Что должно происходить все чаще и чаще, поскольку Nvidia Streamline SDK предлагает разработчикам универсальный вариант для включения его, а также технологий масштабирования других поставщиков.
Производительность DLSS
Изображение 1 из 3
(Изображение предоставлено: Будущее) (Изображение предоставлено: Будущее) (Изображение предоставлено: Будущее)
При максимальном качестве DLSS 3 с генерацией кадров показывает более чем вдвое большую частоту кадров 4K, чем Cyberpunk 2077, Microsoft Flight Sim и F1 22. Для меня это по-прежнему лучшая особенность архитектуры нового поколения Nvidia, и я действительно надеюсь, что Frame Gen откроется для работы над Ampere, по крайней мере, в будущем.
Анализ Nvidia RTX 4070 Ti
(Изображение предоставлено в будущем)
Что означает RTX 4070 Ti для геймеров?
Я до сих пор не знаю, как относиться к еще одной видеокарте по цене ультра-энтузиастов, выпущенной в тусклый свет нового года, когда глобальные экономические проблемы находятся в центре внимания всех наших средств массовой информации. Даже в ТикТоке. Да, долой детей, меня.
Теперь у нас есть пять графических процессоров в этом новом поколении графических карт для ПК, и самая дешевая из них по-прежнему стоит 799 долларов. И это только из-за снижения предыдущей позиции Nvidia, когда это был графический процессор за 899 долларов. Это все также в лучшем случае, потому что мы видели, как некоторые AIB по-прежнему ставят ценники в 900 долларов и выше на свои разогнанные версии RTX 4070 Ti.
Понятно, что мы все еще далеки от массовых графических карт Ады Лавлейс, поскольку Джефф Фишер из Nvidia выступает на своем мероприятии CES 2023, посвященном деталям, прямо заявляя, что «серия RTX 30 продолжает оставаться лучшим графическим процессором для массовых геймеров». Даже если на самом деле графические процессоры AMD серии RX 6000 — это те, на которые вы должны сбросить доллар, если вы ищете лучшую отдачу от затраченных средств на более разумном конце рынка видеокарт.
Но определенно есть аргумент, что в своей ценовой категории RTX 4070 Ti является лучшим вариантом для тех, кто хочет потратить большую часть тысячи на свой новый графический процессор, чем карты AMD RDNA 3 или непомерно дорогие карты. RTX 4080.
Изображение 1 из 4 якобы заменяет.
И, честно говоря, когда я начал тестировать карту в офисе перед Рождеством, я был удивлен уровнем производительности, которую она предлагает. Я видел все исходные тесты, опубликованные о нем как о RTX 4080 12 ГБ, и знал, что его завышенные цифры сводились к DLSS 3 и генерации кадров. Но именно то, насколько хорошо он справляется без всего этого, делает его таким выгодным вложением в GPU для высококлассных геймеров.
Однако, если бы Nvidia продвинула ее по той же цене в 699 долларов, что и оригинальная RTX 3080, с дополнительной игровой производительностью, которую она предлагает, я был бы гораздо более расторопным в своих похвалах. И это также полностью кастрировало бы карты AMD RDNA 3. При цене 799 долларов он лишь немного опережает графический процессор последнего поколения, который он якобы заменяет.
Но он впереди и достаточно регулярно работает на том же уровне, что и RTX 3090 за 1500 долларов из линейки Ampere, чтобы по-прежнему казаться отличным обновлением для всех, кто использует высокопроизводительную карту поколения GeForce 10-й или 20-й серий.
Сейчас беспокоит только то, что RTX 4070 Ti означает для графических процессоров с более низкими характеристиками, которые, мы надеемся, скоро появятся. Как я упоминал ранее, этот чип AD104 был урезан, особенно когда речь идет о конфигурациях памяти, по сравнению с эквивалентными картами Ampere. Скрестив пальцы, мы увидим карты RTX 4070 и RTX 4060, использующие один и тот же графический процессор, с несколькими отключенными SM, но использующие ту же 192-битную шину. Более агрессивное сокращение может действительно затруднить более популярные карты Ады.
Nvidia GeForce RTX 4070 Ti: Сравнение цен
24 отзыва покупателей Amazon (открывается в новой вкладке)
☆☆☆☆☆
(открывается в новой вкладке)
(открывается в новой вкладке)
3 9 новая вкладка)
£805,15
(открывается в новой вкладке)
Вид (открывается в новой вкладке)
(открывается в новой вкладке)
(открывается в новой вкладке)
£829,48
new (открывается 90 дюймов) вкладка)
Вид (открывается в новой вкладке)
(открывается в новой вкладке)
(открывается в новой вкладке)
£839,99
(открывается в новой вкладке)
Просмотр (открывается в новой вкладке)
(открывается в новой вкладке)
(открывается в новой вкладке)
959098 £
(открывается в новой вкладке)
Просмотр (открывается в новой вкладке)
(открывается в новой вкладке)
(открывается в новой вкладке)
£919
(открывается в новой вкладке)
Просмотр (открывается в новой вкладке) новая вкладка)
Показать больше предложений
на базе
Ознакомьтесь с нашей политикой отзывов
Nvidia RTX 4070 Ti
Nvidia спасла графический процессор Ada третьего уровня. .. только что. С более низкой ценой RTX 4070 Ti имеет больше смысла, чем RTX 4080 за 899 долларов, а с игровой производительностью уровня RTX 3090 под кожухом с тремя вентиляторами скрыта большая мощность. Это также карта, которая заставит большинство геймеров дважды подумать о конкурирующих графических процессорах AMD RDNA 3.
Дейв играет со времен Zaxxon и Lady Bug на Colecovision и кодовых книг для Commodore Vic 20 (Death Race 2000!). Он собрал свой первый игровой ПК в нежном возрасте 16 лет и, наконец, закончил исправлять ошибки в системе на базе Cyrix примерно через год. Когда он выбросил его из окна. Впервые он начал писать для официального журнала PlayStation Magazine и Xbox World много десятилетий назад, затем перешел на полный рабочий день в формат ПК, затем, среди прочих, в PC Gamer, TechRadar и T3. Теперь он вернулся и пишет о кошмарном рынке видеокарт, процессорах с большим количеством ядер, чем смысла, игровых ноутбуках, которые жарче солнца, и твердотельных накопителях, более емких, чем Cybertruck.
лучших видеокарт NVIDIA в 2023 году
Автор
Адам Корсетти
Графические карты NVIDIA
— это крупные инвестиции, но эти графические процессоры обеспечат долгие годы безупречной игры.
При выборе деталей для нового компьютера видеокарта теперь является наиболее важным компонентом игрового ПК. Конечно, процессоры, память и материнские платы по-прежнему могут ограничивать производительность системы. Однако стоимость процессора для высокопроизводительного игрового ПК часто значительно меньше, чем покупка лучших графических процессоров NVIDIA по отдельности. Другим важным решением при создании игрового ПК является выбор верности NVIDIA или AMD, ведущим производителям игровых графических процессоров. В своем нынешнем виде NVIDIA является скорее законодателем моды, внедряющим функции, характерные для ее оборудования, такие как DLSS и трассировка лучей, в то время как AMD предлагает более выгодные предложения с видеокартами более низкого уровня.
СВЯЗАННЫЕ: Лучшие бюджетные готовые ПК в 2023 году
Для геймера, которому просто нужно испытать новейшие и лучшие визуальные эффекты в высоких разрешениях, трудно возразить против выбора графической карты NVIDIA. Несмотря на то, что каждое новое поколение продуктов GeForce продается по все более высоким ценам, покупатели выкладывают тысячи долларов за свои карты, что приводит к нехватке запасов. Сколько геймер должен потратить на видеокарту NVIDIA, во многом зависит от разрешения его дисплея и желаемой частоты кадров при воспроизведении игр с разрешением 1080, 1440p или 4K. Ультрадорогая RTX 4090 в наши дни привлекает большинство заголовков, но среди этого списка видеокарт есть варианты и для геймеров с ограниченным бюджетом.
GIGABYTE GeForce RTX 3070 Gaming OC 8G
Лучшая видеокарта NVIDIA в целом
GIGABYTE GeForce RTX 3070 Gaming OC 8G (REV2.0) Видеокарта
3
Сохранить 590,46 $ 591,99 $ 008 GIGABYTE GeForce RTX 3070 Gaming OC 8G использует архитектуру NVIDIA RTX 2-го поколения, чтобы обеспечить потрясающие визуальные эффекты с невероятной частотой кадров при высоких разрешениях. Видеокарта улучшает характеристики RTX 3070 Founders Edition с максимальной тактовой частотой 1815 МГц. Система охлаждения Windforce 3X GeForce RTX 3070 GAMING OC 8G поддерживает охлаждение видеокарты благодаря 3 80-мм вентиляторам и 5 композитным медным тепловым трубкам.
Плюсы
- Поддерживает стабильную тактовую частоту
- Отличная производительность 1440p
- Хорошее качество сборки
Минусы
3
3
548,46 долл. США в Amazon $ 559,99 в Best Buy
Чтобы получить звание лучшей видеокарты NVIDIA, Gigabyte GeForce RTX 3070 Gaming OC должна обеспечить производительность, которая понравится подавляющему большинству геймеров. В то время как большинство покупателей вполне довольны RTX 3070 Founders Edition, Gigabyte дополняет стандартную карту NVIDIA еще более высокой тактовой частотой 1815 МГц и эффективной системой охлаждения, позволяющей справляться с температурами, превышающими нормальные. В качестве дополнительного бонуса карту обычно можно найти в наличии без огромных наценок по сравнению с рекомендованной производителем розничной ценой.
Для борьбы с повышенными температурами, при которых работает разогнанная RTX 3070, Gigabyte использует собственную систему из 3 вентиляторов и расширенного радиатора, который напрямую контактирует с графическим процессором для максимального охлаждения. Если некоторые геймеры не хотят рисковать, Gigabyte GeForce RTX 3070 Gaming OC имеет удобный двойной переключатель BIOS, который переключается между режимами OC и Silent, причем последний работает на немного более низкой тактовой частоте.
Gigabyte GeForce RTX 3070 Gaming OC — это карта, которая лучше всего подходит для первоклассной производительности при разрешении 1440p. Несмотря на то, что RTX 3070 достаточно мощная, чтобы протестировать ситуацию в разрешении 4K, RTX 3070 будет изо всех сил пытаться поддерживать 60 кадров в секунду в некоторых играх при этом разрешении со средними и высокими настройками детализации. Несмотря на это, 1440p остается любимым местом для многих геймеров, и Gigabyte GeForce RTX 3070 Gaming OC 8G также превосходно работает с мониторами UltraWide с этим разрешением.
ASUS ROG Strix GeForce RTX 4090 OC Edition
Самая быстрая видеокарта NVIDIA
ASUS ROG Strix GeForce RTX 4090 OC Edition
запатентованная конструкция поддерживает самый мощный потенциал разгона среди аналогов. С паровой камерой на буксире ROG Strix выпускается как в черном, так и в белом цвете и не разочаровывает ни внешним видом, ни мощностью. Это самый мощный 4090, работая на стабильной частоте 3120 МГц в наших собственных тестах.
Pros
- Лучшая в отрасли производительность
- Бескомпромиссные игры 4K
- DLSS 3.0 меняет правила игры
9 0 0 2 74 9 0 ge pricetag 2010 долларов на Amazon 2010 долларов на Newegg По крайней мере, среди видеокарт, ориентированных на игры, GeForce RTX 4090 — самый мощный вариант на рынке. Помимо создания безумной частоты кадров даже при разрешении 4K, одним из самых интригующих дополнений является поддержка DLSS 3. DLSS — это функция, которая часто вызывает путаницу в отношении того, что она делает и какую пользу она приносит обычному игроку. По сути, DLSS повышает частоту кадров в играх за счет рендеринга кадров с более низким разрешением, а затем с помощью искусственного интеллекта масштабирует эти кадры, создавая впечатление, что они работают с более высоким разрешением. Эта хитрость от NVIDIA эффективнее, чем когда-либо, с DLSS 3.0, позволяя играть в игры с разрешением 4K и даже 8K со стабильной частотой кадров на менее мощных компьютерах. СВЯЗАННО: Лучшие графические процессоры NVIDIA для покупки в 2023 году Хотя на данный момент поддержка DLSS 3.0 минимальна, геймеры могут сразу же воспользоваться невероятной мощью ASUS ROG Strix GeForce RTX 4090 OC Edition. Играть в игры со скоростью 4K 120 кадров в секунду теперь вполне реально с этой видеокартой без ущерба для более низких настроек текстуры или отражения. Хотя мониторов и телевизоров для тестирования игр с разрешением 8K мало, в ранних тестах есть такие карты, как ASUS ROG Strix GeForce RTX 409.0 работает на удивление хорошо в этом разрешении. По сравнению со стандартной NVIDIA GeForce RTX 4090, Asus создала массивную аппаратную часть, которая больше похожа на коробку, чем на карту. Производительность по сравнению с Founders Edition еще выше, максимальная тактовая частота составляет 2640 МГц, а световые эффекты Aura Sync RGB просто потрясающие. Покупателям понадобится мощный блок питания для работы карты, а 850-ваттный блок питания будет беспроигрышным вариантом. Карта ASUS длиной более 14 дюймов также проверит пределы возможностей многих корпусов ПК. Несмотря на это, ASUS ROG Strix GeForce RTX 4090 OC Edition — одна из самых передовых видеокарт NVIDIA на планете. Лучшая бюджетная видеокарта NVIDIA 185,99 долл. для геймеров на бюджета или создание компактной энергоэффективной буровой установки. Эта графическая карта PNY максимально раскрывает потенциал архитектуры NVIDIA Turing благодаря затенению с переменной скоростью, затенению сетки и рендерингу с несколькими представлениями. Для PNY GeForce GTX 1650 требуется система, работающая только от блока питания мощностью 300 Вт или выше, и на карте нет отдельного разъема питания. Достоинства Недостатки PNY GeForce GTX 1650 4 ГБ
PNY GeForce GTX 1650 4 ГБ GDDR6 Видеокарта с двумя вентиляторами
6 8
184,4 долл. США на Amazon 185,99 долл. США в лучшем случае Купить
Легко забыть время, когда графические карты стоили не дороже, чем топовый процессор или любой другой компонент ПК. Сегодня геймеры, собирающие новую систему, часто сначала решают, какую видеокарту NVIDIA или AMD они могут себе позволить, и строят остальную часть системы на основе этого выбора. К счастью, некоторые бюджетные варианты все еще доступны, по крайней мере, для покупателей, не заинтересованных в играх с разрешением выше 1080p. PNY GeForce GTX 1650 не поддерживает никаких причудливых функций, таких как трассировка лучей или DLSS, но это отличный вариант для очень компактного игрового ПК или надежной видеокарты для офисной работы.
На PNY GeForce GTX 1650 особо не на что смотреть, но ее минималистичный дизайн позволяет ей поместиться в тесном корпусе корпуса mini-ITX. Кроме того, видеокарте не требуется дополнительный разъем питания, что упрощает и без того сложную прокладку кабелей в небольших системах. Общая потребляемая мощность карты составляет всего 75 Вт. В прошлом у некоторых стандартных карт GTX 1650 отсутствовали соединения DisplayPort, но, к счастью, PNY GeForce GTX 1650 предлагает 2 таких порта вместе с 1 соединением HDMI 2.0.
GeForce GTX 1650 от PNY — вполне приемлемая карта для запуска игр в разрешении 1080p с высокими настройками детализации. Игра со скоростью 60 кадров в секунду — это верный выбор, а карта подходит для 120 кадров в секунду в некоторых умеренно требовательных играх. Для чего-то большего геймерам придется перейти на более дорогую альтернативу, такую как RTX 3050. Тем не менее, PNY GeForce GTX 1650 — лучшая видеокарта NVIDIA для покупателей с ограниченным бюджетом.
ZOTAC Gaming GeForce RTX 3060 Twin Edge OC
Лучшая видеокарта среднего класса NVIDIA
ZOTAC Gaming GeForce RTX 3060 Twin Edge OC
349,99 $ 399,99 $ Сэкономьте 50 $
ZOTAC GeForce RTX 3060 Twin Edge OC обеспечивает максимальную производительность архитектуры NVIDIA Ampere и 12 ГБ высокоскоростной памяти GDDR6 для невероятной производительности. Геймеры со скромным бюджетом могут насладиться новейшими функциями NVIDIA, такими как трассировка лучей 2-го поколения, с этой видеокартой ZOTAC. ZOTAC Gaming GeForce RTX 3060 Twin Edge OC использует охлаждение IceStorm 2.0 для более широкого потока охлаждающего воздуха. Карта изготовлена с использованием новой более прочной металлической задней панели, что гарантирует ее долговечность в течение многих лет изнурительных игровых сессий.
Плюсы
- Поддерживает DLSS и трассировку лучей
- Минимальная длина идеальна для компактных ПК
- Память 12 ГБ
Минусы
6 location
349,99 $ на Amazon $ 349,99 на Newegg
Графическая карта среднего класса сегодня — это существенная инвестиция, которая стоит столько же или больше, как некоторые действительно мощные процессоры. Тем не менее, Zotac Gaming GeForce RTX 3060 Twin Edge OC позволяет геймерам пользоваться функциями архитектуры NVIDIA Ampere, представленной в 30-й серии, без значительного скачка цен, наблюдаемого с RTX 3070 и выше. Видеокарты RTX 3060 поставляются с 12 ГБ памяти DDR6, что на самом деле больше, чем у пакетов RTX 3060 Ti, хотя и с более медленной шиной памяти.
СВЯЗАННО: Лучшие корпуса для ПК 2023 года
С Zotac Gaming GeForce RTX 3060 Twin Edge OC тактовая частота стандартной RTX 3060 увеличена до 1807 МГц. Для борьбы с более высокими температурами Zotac использует свою систему IceStorm 2.0, которая использует преимущества новых 11-лопастных вентиляторов для увеличения воздушного потока и зоны охлаждения. Длина этой карты ничего не стоит, поскольку ее размеры составляют менее 9 дюймов. Zotac Gaming GeForce RTX 3060 Twin Edge OC имеет почти такую же ширину, как и длина, но его форма позволяет компактным ПК испытывать высокую игровую производительность.
Zotac Gaming GeForce RTX 3060 Twin Edge OC — одна из лучших видеокарт для запуска игр с разрешением 1080p, и она должна стареть быстрее, чем старые карты с новыми более требовательными играми. 1440p — более рискованное предложение с Twin Edge OC, но его основными преимуществами являются поддержка трассировки лучей и DLSS при более низких разрешениях. 3 порта 1.4a DisplayPort и 1 разъем HDMI 2. 1 обеспечат возможность подключения карты к любому современному монитору или телевизору. Благодаря превосходной производительности при разрешении 1080p, совместимости с NVIDIA Ampere и удивительно компактной форме Zotac Gaming GeForce RTX 3060 Twin Edge OC входит в число лучших графических процессоров NVIDIA.
MSI GeForce RTX 3080 Ventus 3X Plus 10 ГБ OC
Лучшая графическая карта NVIDIA высокого класса
MSI GeForce RTX 3080 Ventus 3X Plus LHR 10 ГБ -производительность NVIDIA GeForce RTX 3080. Это один из самых мощных графических процессоров на рынке, хотя NVIDIA уже выпустила его преемника. Обеспечивая превосходную производительность 4K, карта имеет 10 ГБ памяти GDDR6X с использованием 320-битного интерфейса памяти и тактовой частотой Boost до 1740 МГц. Эта видеокарта поддерживает трассировку лучей, DLSS 2.0 и поставляется с 3 портами DisplayPort 1.4a и 1 соединением HDMI 2.1.
Достоинства
- Высокая частота кадров 4K
- Интеллектуальные функции охлаждения
- Поддержка DLSS 2. 0 0018
- Цена отказывается снижаться
$1089,99 на Amazon
Когда игрок готовы инвестировать серьезные деньги в новую видеокарту, они обычно не ищут инкрементного апгрейда. Перед выпуском NVIDIA RTX 3080 в начале 2022 года многие видеокарты обещали обеспечить достойную игровую производительность в разрешении 4K, но все они немного разочаровали геймеров. RTX 2080 Ti, которая предшествовала RTX 3080, дала нам представление о том, на что похожи игры 4K, но карта часто не могла поддерживать 60 кадров в секунду в самых требовательных играх. Наконец-то появилась RTX 3080, и геймеры смогли поиграть во многие игры в разрешении 4K с максимальными настройками детализации.
MSI GeForce RTX 3080 Ventus 3X Plus 10GB OC — это усовершенствованная версия NVIDIA RTX 3080 Founders Edition, которая всегда разочаровывала покупателей, пытающихся найти ее в наличии. В отличие от стандартной RTX 3080, у которой один вентилятор находится сверху, а другой — снизу карты, эта карта MSI использует более традиционную конфигурацию с тремя вентиляторами. Тем не менее, вентиляторы состоят из интересного сочетания традиционных и дисперсионных лопастей, которые направляют больший поток воздуха прямо на радиатор. Тепловые прокладки также щедро размещены по всей видеокарте, чтобы отводить тепло к основным трубкам радиатора.
Хотя NVIDIA RTX 4080 и 4090 уже вышли в свет, на самом деле они не совершают такого же скачка поколения, как RTX 3080, по крайней мере, для тех, кто интересуется играми в 4K без каких-либо жертв. Если геймер может найти в наличии RTX 3080 по цене, близкой к рекомендованной производителем розничной цене, это лучшая видеокарта NVIDIA для тех, кто хочет перейти от игр с разрешением 1080p и 1440p.
ЕЩЕ: Лучшие бюджетные материнские платы Intel в 2023 году
Часто задаваемые вопросы
В: Какой графический процессор №1 в мире?
Что касается игр, серия графических процессоров NVIDIA GeForce RTX 4090 намного превосходит любого из конкурентов, включая другие предложения NVIDIA. Но для размера почти Xbox Series S неудивительно, что эта графическая карта может выдавать FPS, как никто другой.
В: Какая видеокарта лучше всего подходит для игр в разрешении 4K?
RTX 4070TI — идеальный графический процессор для игр в разрешении 4K. Он может поддерживать игры 4K с высокой частотой кадров благодаря DLSS 3. Однако RTX 3080 и RTX 3090 также обеспечивают стабильную частоту кадров 60 кадров в секунду при разрешении 4K для многих игр.
В: В чем разница между видеокартами NVIDIA GTX и RTX?
Видеокарты NVIDIA RTX обеспечивают поддержку трассировки лучей и, как правило, имеют большее количество видеопамяти, ядер CUDA и скорости графического процессора, чем их более старые серии GTX. Фактически, помимо GTX 1650, остальная часть линейки прекратила производство в пользу серии RTX.
Это не означает, что эта карта больше не жизнеспособна, но поскольку емкость видеопамяти для графических процессоров с годами увеличивается, 4 ГБ больше не сокращают ее.
Подписывайтесь на нашу новостную рассылку
Связанные темы
- Обзоры оборудования
Об авторе
Заядлый геймер с детства, Адам Корсетти увлекся видеоиграми после использования оригинальной консоли Nintendo.