Обзор видеокарт nvidia: Сравнение видеокарт GeForce RTX и GTX

Содержание

Видеокарты | Лаборатория | Overclockers.ru

Все статьи

ASUS

Видеокарты

Процессоры

Материнские платы

Охлаждение

Периферия

Программное обеспечение

Игры

FAQ

Память

Блоки питания

Корпуса

Всё про…

Накопители HDD

Мониторы

Институт оверклокинга

Сетевое оборудование

Накопители SSD

Мобильные устройства

Смартфоны

Планшеты

Ноутбуки

Руководства

События

Сайт

ATI
параметры

Radeon 8500-9250

Radeon 9500-9600-9800SE

Radeon 9700-9800

Radeon X300-X600

Radeon X700

Radeon X800-X850

Radeon X1300

Radeon X1600

Radeon X1800

Radeon X1900

Radeon HD 2400

Radeon HD 2600

Radeon HD 2900

Radeon HD 3800

Radeon HD 4800

Radeon HD 4600

Radeon HD 4700

Radeon HD 5800

Radeon HD 5700

Radeon HD 5900

Radeon HD 5600

Radeon HD 5400

Radeon HD 3200

Radeon HD 6800

Radeon HD 6900

Radeon HD 6700

Radeon HD 6600

Radeon HD 7900

Radeon HD 7700

Radeon HD 7800

Radeon R9 280X

Radeon R9 270X

Radeon R7 260X

Radeon R9 290/290X

Radeon R9 390X

Radeon R7 370

Radeon R9 390

Radeon R9 Fury X

Radeon R9 380

Radeon R9 Fury

Radeon R7 360

Radeon R9 Nano

Radeon R9 380X

Radeon RX 480

Radeon RX 470

Radeon RX 460

Radeon RX 580

Radeon RX 550

Radeon RX 570

Radeon RX Vega 64

Radeon RX 560

Radeon RX Vega 56

Radeon RX 6800

Radeon RX 6700

Radeon RX 6600

NVIDIA
параметры

GeForce MX

GeForce 3

GeForce 4

GeForce FX

GeForce 6

GeForce 7

GeForce 8

GeForce 9

GeForce GTX

GeForce GTS

GeForce GT

GeForce GTX 680

GeForce GTX 690

GeForce 600

GeForce 700

GeForce 980

GeForce 970

GeForce 960

GeForce GTX Titan X

GeForce 980 Ti

GeForce 950

GeForce GTX 1080

GeForce GTX 1070

GeForce GTX 1060

GeForce GTX 1050 Ti

GeForce GTX 1050

Titan X (Pascal)

GeForce GTX 1080 Ti

GeForce GT 1030

GeForce GTX 1070 Ti

GeForce RTX 2080 Ti

GeForce RTX 2080

GeForce RTX 2070

GeForce RTX 2060

GeForce GTX 1660 Ti

GeForce GTX 1660

GeForce RTX 3080

GeForce RTX 3090

GeForce RTX 3070

GeForce RTX 3060 Ti

GeForce RTX 3060

GeForce RTX 3080 Ti

GeForce RTX 3070 Ti

GeForce RTX 4090

GeForce RTX 4080

По производителю
параметры

Abit

Albatron

ASUS

Chaintech

Gainward

Gigabyte

Leadtek

MSI

Palit

PowerColor (Tul)

Prolink

Sapphire

Sparkle

SUMA

Другие

HIS

XFX

BFG

Zotac

Sysconn

Point of View

Интерфейс
параметры

AGP

PCI Express

 

Андрей Понкратов

23 февраля 2023

GeForce RTX 4070 Ti Suprim X – это крутая видеокарта премиум-класса, оснащенная мощной системой охлаждения и реализованной по максимуму подсистемой питания.

Андрей Понкратов

17 февраля 2023

GeForce RTX 4080 Gaming X Trio обеспечивает высокую производительность и тихую работу в 4K, а в меньшем разрешении позволяет играть на максимуме.

Андрей Понкратов

9 февраля 2023

Новинка MSI – это производительная, мощная и тихая видеокарта, основанная на графическом процессоре AD102.

Андрей Понкратов

22 ноября 2022

На тест в лабораторию прибыла новинка MSI – настоящий флагман, который способен обеспечить высокую производительность во всех современных играх.

Дмитрий Олегович

10 июня 2022

Тестирование видеокарты Radeon RX 6800 XT и еще пяти графических ускорителей в разрешениях 1920 х 1080, 2560 х 1440, 3840 х 2160 и двух режимах работы.

Дмитрий Олегович

1 июня 2022

Тестирование видеокарты Radeon RX 6800 и еще пяти графических ускорителей в разрешениях 1920 х 1080, 2560 х 1440, 3840 х 2160 и двух режимах работы.

Дмитрий Олегович

27 мая 2022

Тестирование видеокарты Radeon RX 6700 ХТ и еще пяти графических ускорителей в разрешениях 1920 х 1080, 2560 х 1440, 3440 х 1440 и двух режимах работы.

Дмитрий Олегович

22 мая 2022

Тестирование видеокарты Radeon RX 6600 ХТ и еще пяти графических ускорителей в разрешениях 1920 х 1080, 2560 х 1440, 3440 х 1440 и двух режимах работы.

Дмитрий Олегович

18 мая 2022

Тестирование видеокарты Radeon RX 6600 и еще пяти графических ускорителей в разрешениях 1920 х 1080, 2560 х 1080, 2560 х 1440 и двух режимах работы.

Максим Романов

12 мая 2022

Выбор PCI видеокарты для ретро-платформы на базе Windows XP: шесть поколений моделей, процессорозависимость, частота системной шины и другие характеристики, которые позволят определить победителя.

Дмитрий Олегович

27 марта 2022

Тестирование двух конфигураций ПК в двух режимах работы, разрешении 1920 x 1080 и восьми играх.

Дмитрий Олегович

25 марта 2022

Тестирование видеокарт NVIDIA GeForce RTX 2070 Super и AMD Radeon RX 5700 ХТ в связке с процессором Core i7-11700КF с в разрешениях 1920 х 1080, 2560 х 1080 и 2560 х 1440, двух режимах работы и восьми играх.

Александр Андерсон

24 марта 2022

Модель MSI принадлежит к тому редкому племени бюджетных графических ускорителей, которые заслуживают внимания.

Дмитрий Олегович

20 марта 2022

Чем выше разрешение, тем сильнее снижается производительность. И по этому показателю мы выясним, насколько влияет объем на производительность графических ускорителей.

Дмитрий Олегович

18 марта 2022

Тестирование видеокарт NVIDIA GeForce RTX 2060 Super и AMD Radeon RX 5700 в связке с процессором Core i7-11700КF с в разрешениях 1920 х 1080, 2560 х 1080 и 2560 х 1440, двух режимах работы и восьми играх.

Александр Андерсон

10 марта 2022

Новый ускоритель является промежуточным звеном между двумя флагманами и призван закрыть брешь между ними не только по производительности, но и цене.

Дмитрий Олегович

9 марта 2022

Тестирование двух конфигураций ПК в двух режимах работы, разрешении 1920 x 1080 и восьми играх.

Андрей Понкратов

8 марта 2022

Новинка серии The Ultimate Force, основанная на Navi 24 – отличная тихая видеокарта для онлайн-игр и нетребовательных игр, которая сделана на совесть.

Дмитрий Олегович

7 марта 2022

Тест NVIDIA GeForce RTX 3060, GeForce RTX 2060, GeForce GTX 1070 и AMD Radeon RX 5600 XT в разрешениях 1920 x 1080, 2560 х 1080 и 2560 х 1440, двух режимах и восьми играх.

Дмитрий Олегович

2 марта 2022

Тест 20 (от Radeon RX 5500 XT до Radeon RX 5700 XT, от GeForce GTX 1650 до GeForce RTX 3080) графических ускорителей в восьми играх и трех разрешениях.

за что следует доплатить? GECID.com.

::>Видеокарты
>2022
> Сравнение четырех видеокарт GeForce RTX 3060 от GIGABYTE: за что следует доплатить?

28-10-2022

В одном из предыдущих обзоров, там где мы выбирали оптимальный процессор Intel для GeForce RTX 3060, мы оговорились, что намеренно берем не самую дешевую версию видеокарты, чтобы тише и холоднее, а буст-частоты выше. То есть только по внешнему виду и некоторым характеристикам, плюс пара комментариев от зрителей, мы решили, что чуть более дорогая видеокарта серии Gaming значительно лучше модели из серии EAGLE. Действительно ли это так? А если да, то насколько?

К тому же, обе эти видеокарты мы еще не вернули. Почему бы не сравнить? Более того, для полноты картины попросили у Telemart.ua еще две версии RTX 3060 в исполнении GIGABYTE – VISION и AORUS ELITE.

Поэтому благодарим TELEMART за возможность делать разные тесты и напоминаем, здесь есть много комплектующих, периферии, сетевого оборудования и готовых ПК на разный вкус и кошелек. А недавно появилась возможность обновиться по принципу Trade-In – сдать уже не нужное железо и получить скидку на новое оборудование до 99%.

Почему RTX 3060 – оптимальный выбор?

Прежде чем знакомиться с видеокартами, напомним вообще о характеристиках и возможностях GeForce RTX 3060. Почему видеокарты на этом чипе сейчас так популярны?

 

По сравнению с младшими RTX 3050 видеокарты на GeForce RTX 3060 значительно мощнее благодаря почти на треть большему количеству CUDA ядер и других рабочих блоков – текстурных, растеризованных, RT ядер второго поколения и тензорных третьего. Также здесь в полтора раза шире шина видеопамяти, которой 12 ГБ против 8-ми. Это, кстати, запас на будущее. Плюс еще и зависимости от скорости интерфейса PCI-E почти нет, потому что у RTX 3060 полноценные 16 линий, а у RTX 3050 всего 8. Благодаря этому старшая без проблем тянет все в 1080p на максималках и даже в 1440p, если разумно подойти к настройкам графики и заручиться поддержкой DLSS.

Что касается старшей RTX 3060 Тi, то обычная RTX 3060, конечно, проигрывает, потому что имеет на треть меньше CUDA ядер и других блоков, да еще работает с более узкой шины видеопамяти – 192 против 256 бит. Но у Тi версии, которая позиционируется уже под Quad HD, всего 8 ГБ памяти и стоит она дороже.

Чтобы не быть голословными, мы взяли уже собранную для предварительных тестов систему из GIGABYTE GeForce RTX 3060 Gaming OC и попробовали на ней и поработать, и поиграть.

К примеру, графический адаптер значительно ускоряет монтаж видео даже в 4К, как сам процесс с предварительным просмотром, так и финальный рендер, что хорошо видно по загрузке GPU на мониторинге, а также по скорости работы программы. Такое же ускорение можно получить и в других графических и видеоредакторах, и профессиональных приложениях.

Кстати, здесь напомним, что у NVIDIA есть драйверы Studio, оптимизированные для тех, кто за компьютером в первую очередь работает, а не играется.

Если же ПК в первую очередь игровой, то стандартные драйверы обновляются довольно часто для улучшения поддержки новых игр, в которые добавляется в том числе фирменных технологий, например, DLSS или NVIDIA Reflex, а также оптимизации производительности в старых хитах.

Например, берем киберспортивную CS:GO для простоты на карте «Nuke» против ботов. Что у Full HD, что у Quad HD даже с максимальными настройками играть комфортно со средним fps за триста в первом случае и под триста во втором. На высокогерцовых мониторах будет то что нужно!

Или вот давайте в Dota 2 посмотрим трансляцию матча с максимальными настройками. Вновь в обоих случаях, то есть в 1080p и 1440p видеокарта обеспечивает комфортный гейсплей. Так, как всегда в этой игре, в начале матча есть немного подтупливаний, пока игра не закэшит все что нужно, а дальше никаких проблем, даже очень редкие события переваливают за сотню.

Даже в более тяжелой и жадной к ресурсам СoD: Warzone с максимальными настройками графики нет нареканий к плавности видеоряда в самых популярных разрешениях. Даже небольших подлагиваний при езде на транспорте в этот раз не было.

То есть и простые популярные, и даже ресурсоемкие состязательные игры на RTX 3060 идут без проблем. Что касается тяжелых ААА-проектов, то посмотрим не на них уже в сравнительной части.

На чем тестировали?

Прежде, чем переходить к более близкому знакомству с видеокартами, осталось лишь напомнить конфиг системы, в которой мы их протестировали.

В основу системы легла доступная материнская плата GIGABYTE B660M GAMING DDR4.

Процессор взяли 6-ядерный 12-поточный Intel Core i5-12600 с рабочими частотами в диапазоне 3,3 – 4,6 ГГц.

Процессор достаточно горячий, поэтому охлаждали его немаленьким кулером Arctic Freezer 34 eSports DUO Black/Red.

Оперативной памяти установили 32 ГБ двумя модулями DDR4-3200 GOODRAM IRDM X Black.

Операционную систему и прочее установили на SSD GOODRAM IRDM M.2 на 512ГБ.

Источником питания выступил GIGABYTE P850GM 850W, которого хватило с запасом.

А разместились все эти компоненты в корпусе DeepCool MATREXX 40 Tempered Glass.

Подробнее о видеокартах

Сразу скажем, что все модели в названии имеют уточнение rev.2.0. Это означает, что в них встроена защита от майнинга – карты для этого не подходят. А вот работа и игры – пожалуйста!

И еще один момент – непосредственно печатные платы практически одинаковые. Особенно у трех младших, у которых 6 фаз стабилизатора питают GPU, а еще 2 – память. Итого 8 фаз. Несколько отличается здесь AORUS ELITE. У нее питание обеспечивается по схеме 8+2, то есть на две больше, что должно обеспечить более высокие частоты – проверим немного позже.

В основном карты отличаются системами охлаждения, к ним и переходим.

Самая молодая и доступная карта из протестированных – GIGABYTE GeForce RTX 3060 EAGLE OC 12G (rev.2.0). И только она несет на себе два вентилятора. Они имеют диаметр 100 мм и вращаются в разные стороны для создания более сильного потока воздуха, а лопасти имеют рифления для его лучшего распределения.

Длина видеокарты небольшая – всего 242 мм. Она занимает два слота расширения. Дополнительное питание – 8 pin.

Самое интересное – заявленная Boost-частота – 1807 МГц, в то время как у эталонной карты – 1777 МГц. Три семерки запомнить легко – дальше будем сравнивать.

Есть даже немного подсветки RGB Fusion 2.0 – светящаяся надпись EAGLE, то есть «Орел» в переводе.

У GIGABYTE GeForce RTX 3060 Gaming OC 12G (rev. 2.0) также двухслотовая система охлаждения, но оснащена уже тремя вентиляторами по 80 мм каждый.

Радиатор пронизывают три тепловые трубки, с таким же прямым контактом к чипу для лучшей съемки тепла. Требование к питанию аналогично предыдущей карте – блок на 550 Вт и один дополнительный разъем на 8 pin. Длина карты, конечно, больше – 282 мм.

Частота GPU на 30 МГц выше предыдущей – 1837 МГц. Немного подсветки также есть – светящийся логотип «GIGABYTE».

Расположение, кстати, лучше – на торце ее лучше видно через прозрачную боковую панель корпуса.

Далее практически полная копия Gaming – модель GIGABYTE GeForce RTX 3060 VISION OC 12G (rev.2.0). Также три 80 мм вертушки, три тепловые трубки и частота – 1837 МГц. Даже по размерам почти один в один. Разница – пара миллиметров.

Главная же фишка, как вы поняли – дизайн в светлом исполнении. Если собирается система в аналогичном оформлении, такая карточка впишется на ура.

И, в конце концов, AORUS GeForce RTX 3060 ELITE 12G (rev.2.0). Ее система охлаждения – самая большая из всех. Она более толстая, занимает примерно 3 слота расширения, а по длине достигает почти 30 см. К GPU прижимаются 5 тепловых трубок.

Главная фишка кулера – круговая подсветка вентиляторов. Возможно, поэтому производитель рекомендует использовать блок питания на 100 Вт более мощный – 650 Вт, а кроме 8-контактного дополнительного питания понадобится еще один 6-контактный разъем.

Заявленная частота GPU на 30 МГц выше чем у других карт – 1867 МГц.

Кроме того, стоит отметить, что у всех карточек частично продувается бэкплейт. Это окошко позволяет более эффективно выбрасывать горячий воздух за пределы радиатора.

Нагрев и частоты в стресс-тесте

А теперь сравним системы охлаждения в тяжелых условиях. Все карты прогревались под максимальной нагрузкой стресс-тестом FurMark.

Очевидно, тяжелее всего в данном сценарии оказалось 2-вентиляторный 3060 EAGLE. Температура GPU повышалась до 75.5°C, а самая горячая точка, которую поймали датчики, составила почти 91°C. Кулер при этом работал на 94% от своей максимальной скорости. Однако EAGLE на время взяла самую высокую частоту GPU – 1942 МГц. Сможет ли она приблизиться к ней в играх? Узнаем чуть позже.

Версия VISION обдувается более эффективно. Температура – 71,2°C, а Hot Spot – 83,4°C. При этом у вертушек меньшего диаметра более высокая скорость, они разгонялись на дополнительные 460 об/мин по сравнению с EAGLE. И для них это всего 80% от максимума. Зафиксированный потолок частоты – 1890 МГц.

RTX 3060 Gaming OC показала оптимальное соотношение температуры и процентной нагрузки системы охлаждения среди 4-х модификаций. Разогрев GPU уже ниже психологической отметки в 70°C, а кулеры работают на 77% своих возможностей. Максимальная частота GPU – 1867 МГц.

И, наконец, AORUS RTX 3060 ELITE удалось показать самый холодный результат – 67,4°C, при Hot Spot – 77,6°C. Для этого система охлаждения в пике раскручивалась до 90% своих возможностей, что в цифрах — 2118 об/мин.






 

GPU

Hot Spot

Fan (Max)

GPU Clock (Max)

Mem Clock

AORUS RTX 3060 ELITE

67,4℃

77,6℃

2118 RPM (90%)

1875 MHz

1875 MHz

RTX 3060 Gaming OC

68,9℃

79,7℃

2234 RPM (77%)

1867 MHz

1875 MHz

RTX 3060 VISION OC

71,2℃

83,4℃

2360 RPM (80%)

1890 MHz

1875 MHz

RTX 3060 EAGLE OC

75,5℃

90,8℃

1903 RPM (94%)

1942 MHz

1875 MHz

Итого, финальная сводка результатов выглядит так. Можно сказать, что стрессовую нагрузку карты переносят одинаково хорошо, сохраняя температуры в норме, ведь потолок для RTX 3060 – 93°С. Если раздавать места – золото у AORUS ELITE, серебро у Gaming, а бронза достается Vision. EAGLE выигрывает в категории «компактность» – она лучше станет в маленький корпус. Что касается шума, то в нашей системе у всех он примерно одинаков – сравнительно невысокий. По субъективным ощущениям — EAGLE и Gaming немного тише остальных.

Сравним четыре RTX 3060

На что способны наши участницы под максимальной нагрузкой, мы уже узнали, теперь оценим, какую производительность они дают в рабочей и игровой нагрузке.

У Blender 3-вентиляторные модификации практически идентичны. Они обгоняют EAGLE в среднем на 3-4%.

А вот бенчмарк V-Ray построил более наглядную лесенку. AORUS обходит самую молодую модификацию уже на 7-12%. В свою очередь Gaming и VISION находятся посредине – с преимуществом 3-4% над EAGLE.

У 3DMark Time Spy 2-вентиляторная EAGLE вероятно не принимала настолько высокие частоты, как у стресс-теста, что и поставило ее чуть ниже версии Gaming. Понятно, что в общем-то здесь разница исчисляется плюс-минус одним процентом. Самый высокий результат у AORUS – она обошла младшую на 2,5% по показателю Graphics Score.

В целом понятно, что для рабочих задач принципиальной разницы нет – все RTX 3060 крутые и хорошо оптимизированные под популярные программы. Но если искать лучший вариант на этом GPU – выбор AORUS Elite. Оптимальными же будут VISION или Gaming, а замыкающий список – EAGLE.

А теперь основное блюдо этого обзора – сравнение в играх. Удастся ли нащупать между картами ощутимую разницу? Какие в реальных играх температуры и частоты? Узнаем на примере 9 сценариев с разным разрешением и настройками графики.

Начинаем с Cyberpunk 2077 в разрешении 1080p и на ультранастройках. Пока что без лучей и DLSS. У всех карт разница в пределах погрешности измерений. Все держат отличную частоту GPU в районе 1900 МГц с лихвой. Это высшее значение в стресс-тесте. Лучшей была Vision – ее частоты стабильно высокие, что и вылилось в 3-4% преимущества над 2-вентиляторным Eagle.

Обращая внимание на соотношение шума и температур к скорости, побеждает Gaming. Она на 5°C холоднее и немного тише, чем Vision.

Включение чудодейственной технологии DLSS в режиме «качество» увеличивает частоту кадров на 30 с лишним процентов! На треть! Без заметного проседания в детализации. Теперь карточки стабильно держат частоту выше 1950 МГц, только EAGLE зацепилась за 1920 МГц, что обеспечило ей на 4% меньшую среднюю частоту, чем у AORUS. Кстати, референсная Boost-частота для RTX 3060 – 1777 МГц.

Продолжаем нащупывать баланс картинки и производительности — включаем ультратрассировку лучей, а DLSS переводим в режим «Производительность». В таком сценарии лучше справилась модель AORUS – единственная взяла 2025 МГц, еще и при самой низкой температуре. На втором месте в этом плане оказалась Gaming, у нее тоже 66°C, хорошая частота в 1972 МГц и 60 fps в среднем.

За счет технологии DLSS в режиме «производительность» можно получить такой же плавный и стабильный геймплей в разрешении 1440p. Пока без Ray Tracing. На первом месте снова AORUS. Например, она на 7°C холоднее EAGLE и на 7% обходит ее по очень редким событиям. Снова золотой серединой выглядит Gaming – вторая по температуре и скорости, а в хвосте – двухвентиляторный EAGLE.

И заканчиваем с Cyberpunk 2077 в разрешении 1440p, ультра-лучами и DLSS в режиме «Производительность». Планка средней частоты спускается до 43-45 к/с. Можно сказать, что такой режим вполне комфортен для прохождения. В этом сценарии побеждает VISION, поскольку почти железобетонно держит частоту 1965 МГц. Например, она на 5-9% обошла самую молодую карточку. Второе место между собой делят модели Gaming и Aorus, показывая чуть меньшую частоту, но зато более комфортные температуры.

Переходим ко второй игре – Dying Light 2. Первый этап в разрешении Full HD с максимальными настройками графики, которые называются High, и без технологии DLSS. Снова видим, что какой-то сакральной разницы нет, карточки отличаются на 1-2 к/с, что без мониторинга не почувствовать. По связке температура-частота GPU победила модель Gaming – 69°C и около 1935 МГц. Например, у компактной EAGLE – 77°C и частота чуть ниже 1900 МГц.

С включением трассировки лучей высокого качества и DLSS в режиме Performance сохраняем практически такую же плавность геймплея с незначительной потерей резкости на отдельных текстурах. Градация между картами особо не изменилась. Только VISION выделилась более стабильной частотой, что дало ей 1-2 кадра преимущества над другими.

Переход к разрешению Quad HD. Настройки по-прежнему максимальны, кроме DLSS в режиме Качество и пока без лучей. По-видимому, здесь победителем можно назвать RTX 3060 Gaming OC, поскольку при минимальной температуре в 69°C она показала почти максимальный фреймрейт. Vision у нее обычно отгрызла 2% по средней частоте, но и на те же 2°C оказалась горячей.

И заканчиваем в 1440p с качественной трассировкой лучей. Частота просела примерно на 30%, но благодаря чудодейственной DLSS в режиме «производительности» все равно удалось сохранить достаточно плавный геймплей. По температурам и частотам все по-прежнему: Vision выигрывает 1 fps, а Gaming и AORUS холоднее на 3°C; EAGLE как обычно – на 8 пунктов горячее.

Выводы

Все видеокарты показали отличную производительность за счет частот около 1900 МГц и выше для GPU RTX 3060, который сейчас едва ли не лучший для рабочих задач и игр с трассировкой лучей по своей стоимости. Даже в 1440p, если включить магическую технологию DLSS. Но за счет разных систем охлаждения – отличия все же есть.

2-вентиляторная GIGABYTE GeForce RTX 3060 EAGLE OC 12G (rev.2.0) временами на 7-9°C горячая чем самые холодные Gaming и AORUS. И до 4-9% слабее их по частоте кадров в некоторых сценариях. При плохом охлаждении корпуса эта разница может еще немного увеличиться. С другой стороны, EAGLE лучше совместима с тесными системными корпусами и самая дешевая.

GIGABYTE GeForce RTX 3060 Gaming OC 12G (rev.2.0) – выглядит как золотая середина среди всех 4-х по показателям цена/возможности и скорость/температура. Сейчас она всего на 800-1000 грн дороже 2-вентиляторной. При этом под максимальной нагрузкой используется всего 77% скорости вентиляторов против 94% у младшей. Этот запас можно конвертировать в лучшую температуру или в небольшой разгон. Уровень шума у нее тоже ниже других, по субъективным ощущениям.

Модель GIGABYTE GeForce RTX 3060 VISION OC 12G (rev.2.0) в среднем на 1-2% быстрее Gaming, но на пару градусов горячее и немного громче. Цена плюс-минус такая же. Итак, ее сильная сторона – светлый дизайн под такие же компоненты системы.

Что касается AORUS GeForce RTX 3060 ELITE 12G (rev.2.0), то технически она холодная, выигрывает у Gaming 1-2°C. Благодаря этому держит немного выше частоты, иногда даже рубеж 2000 МГц пересекает, что обеспечивает стабильный бонус в 1-2 кадра. Но, по всей вероятности, большинство не захочет переплачивать именно за это. А вот за крутую подсветку, если в корпусе имеется прозрачная боковина – вполне вероятно.

Автор: Денис Козиолек

NVIDIA представила первые видеокарты GeForce RTX 40 (обновление 2)

Осень обещает быть жаркой на новинки, помимо процессоров AMD Ryzen 7000 и Intel Raptor Lake, NVIDIA представила первые подробности видеокарт GeForce RTX 40. Анонс оказался необычным, поскольку конференция GPU Technologies Conference или GTC посвящена профессиональным и серверным решением. Но в этом году она стала площадкой для представления игровых новинок.

По предыдущим утечкам название архитектуры и модельные номера были известны, позднее они были подтверждены маркетинговой кампанией. Видеокарты GeForce RTX 40 базируются на архитектуре Lovelace, названной в честь Ады Лавлейс, британского математика.

Перейдем сразу к наиболее важным фактам. Сегодня представлены две видеокарты GeForce RTX 4080 и GeForce RTX 4090, причем GeForce RTX 4080 будет доступна в двух вариантах, которые отличаются конфигурацией памяти и числом функциональных блоков, несмотря на одинаковое название. Ниже представлены технические спецификации, а «белые пятна» мы планируем закрыть в ближайшие часы.





















Сравнение видеокарт
  GeForce RTX 4080 12 GB GeForce RTX 4080 16 GB GeForce RTX 4090
GPUAD104AD103AD102
Число транзисторов76 млрд.
Техпроцесс4 нм4 нм4 нм
Площадь кристалла608,3 мм²
Число FP32 ALU7. 6809.72816.384
Число INT32 ALU
Число SM6076128
Ядра Tensor240304512
Ядра RT6076128
Базовая частота2.310 МГц2.210 МГц2.230 МГц
Частота Boost2.610 МГц2.505 МГц2.520 МГц
Емкость памяти12 GB16 GB24 GB
Тип памятиGDDR6XGDDR6XGDDR6X
Ширина шины памяти192 бит256 бит384 бит
Частота памяти
Пропускная способность памяти504 Гбайт/с720 Гбайт/с1. 008 Гбайт/с
TDP285 Вт325 Вт450 Вт
Макс. TDP366 Вт516 Вт660 Вт
Цена1.099 евро1.469 евро1.949 евро

Флагманская видеокарта GeForce RTX 4090 использует GPU AD102 со 128 блоками SM, что эквивалентно 16.384 блокам FP32. Пока неизвестно, какое именно число блоков INT32, ядер RT и Tensor присутствует в каждом SM. В любом случае, ядра RT и Tensor перешли на новые версии, поэтому эффективность должна быть намного выше предшественников.

Видеокарта GeForce RTX 4090 оснащается 24 Гбайт видеопамяти GDDR6X с подключением по 384-битной шине. Пропускная способность памяти – около 1 Тбайт/с. Тепловой пакет видеокарты TGP (Total Graphics Power) увеличился до 450 Вт, причем в пике он может достигать 660 Вт. Видеокарты GeForce RTX 4090 поступят в продажу уже 12 октября по цене 1. 940 евро.








Сравнение поколений GeForce RTX
  Потоковые процессоры VRAM Цена
GeForce RTX 30705.8888 Гбайт
256 бит / 448 Гбайт/с
от 42.000 ₽
GeForce RTX 4080 12 Гбайт7.68012 Гбайт
192 бит / 504 Гбайт/с
1.099 евро
GeForce RTX 30808.70410 Гбайт
320 бит / 760 Гбайт/с
от 69.500 ₽
GeForce RTX 4080 16 Гбайт9.72816 Гбайт
256 бит / 720 Гбайт/с
1.469 евро
GeForce RTX 309010.49624 Гбайт
384 бит / 936 Гбайт/с
от 112.000 ₽
GeForce RTX 409016. 38424 Гбайт
384 бит / 1.008 Гбайт/с
1.949 евро

Выше мы сравнили GeForce RTX 4090 с предшественницей GeForce RTX 3090. Конечно, следует учитывать цену. Видеокарта GeForce RTX 3090 стартовала с €1.499, сегодня ее можно приобрести от 112.000 ₽. Прирост производительности RTX 4090 вполне может компенсировать увеличение цены до €1.949, хотя планка почти €2.000 остается довольно высокой для видеокарты.

GeForce RTX 4080 16 GB можно рассматривать как преемницу GeForce RTX 3080. Но и здесь NVIDIA удваивает цену до €1.469. GeForce RTX 3080 можно приобрести от 69.500 ₽. Покупатель получит на 12% больше функциональных блоков, но также и на 6 Гбайт больше видеопамяти, хотя и с менее скоростным подключением.

Видеокарту GeForce RTX 4080 на 12 Гбайт можно назвать преемницей GeForce RTX 3070, которая сегодня продается в рознице от 42.000 ₽. Доплата и здесь весьма существенная. По приросту производительности что-либо сказать сложно. Интерфейс памяти здесь уже, но объем на 50% больше. А из-за более высокой тактовой частоты и пропускная способность выше.

GeForce RTX 4080 в двух вариантах

А вот в случае видеокарты GeForce RTX 4080 следует быть внимательным. Представлены две модели, которые отличаются по числу функциональных блоков. У более мощной GeForce RTX 4080 их на 25% больше. Кроме того, емкость памяти достигает 16 Гбайт вместо 12 Гбайт. Последняя подключена по более широкому интерфейсу, поэтому и пропускная способность выше: 720 Гбайт/с у 16-Гбайт варианта и 504 Гбайт/с у младшей версии с 12 Гбайт. Энергопотребление составляет 285 или 325 Вт, цена — €1.469 или €1.099. Обе видеокарты GeForce RTX 4080 будут продаваться с ноября.

Общая черта всех представленных сегодня видеокарт GeForce RTX 40 – подключение через PCI Express 4.0. На видеокартах Founders Edition всегда используется разъем дополнительного питания 12VHPWR. Пока можно сказать одно: видеокарты Founders Edition очень похожи на нынешнюю линейку GeForce RTX 30. Дизайн системы охлаждения и внешний вид были почти полностью унаследованы. Что касается видеовыходов, доступны 3x DisplayPort 1.4 и 1x HDMI 2.1. Для всех представленных видеокарт следует отметить поддержку двойного кодировщика AV1. Напомним, что кодирование AV1 до сих пор было козырем Intel с поколением Alchemist, но теперь предложение перестало быть уникальным – еще до выхода самих видеокарт.

Не совсем понятно решение NVIDIA по анонсу двух видеокарт GeForce RTX 4080. Возможно, NVIDIA пытается сократить ассортимент продуктов, но видеокарты существенно различаются. Все три новых модели GeForce RTX 40 превосходят нынешнюю линейку по производительности. Но в ближайшие месяцы NVIDIA наверняка представит и «младшие» видеокарты.

Первые тесты

Конечно, NVIDIA предоставила первые тесты, в которых сравнила новые видеокарты с предшественницами.

Видеокарты GeForce RTX 4080 с 16 и 12 Гбайт видеопамяти быстрее GeForce RTX 3080 Ti в два-четыре раза, в зависимости от теста. GeForce RTX 4090 будет работать в два раза быстрее GeForce RTX 3090 Ti, если верить NVIDIA. Кроме того, новые видеокарты работают в два раза эффективнее.

Впрочем, в приведенных тестах используется не чистая растеризация, а DLSS, что сказывается на производительности. У новых видеокарт производительность DLSS намного выше.

Вкратце об архитектуре Ada Lovelace

NVIDIA привела не так много подробностей, лишь вкратце упомянув архитектуру Ada Lovelace. GPU производятся на мощностях TSMC по 4-нм техпроцессу. В самой крупной конфигурации (AD102) GPU оснащается 76 млрд. транзисторов.

По сравнению с предшественниками, чипы GeForce RTX 40 иначе располагаются по кривой производительности на ватт. NVIDIA заявляет о фактическом удвоении производительности при прежнем энергопотреблении. График справа показывает, что NVIDIA с архитектурой Ampere не собиралась преодолевать планку энергопотребления 350 Вт. Но с видеокартой GeForce RTX 3090 Ti данный уровень был преодолен, затем уже начинается GeForce RTX 4090. Как можно видеть по кривой, чипы Ada Lovelace могут очень эффективно работать на уровнях от 150 до 250 Вт. Но соответствующие бюджетные видеокарты сегодня представлены не были.

С новой архитектурой NVIDIA оптимизировала вычисления, которые теперь выполняются более эффективно.

Технология Shader Execution Reordering (SER) позволяет объединять вычисления в конвейере, чтобы вычислительные блоки были всегда максимально нагружены. Производительность потоковых процессоров при этом увеличивается до двух раз, что приводит к повышению fps в играх до 25%.

Ядра RT третьего поколения

Третье поколение ядер RT в архитектуре Ada получило в два раза более высокую пропускную способность вычислительных блоков по сравнению с предшественниками, что увеличивает производительность по расчетам трассировки лучей в 2,8x. В случае GeForce RTX 4090 теоретическая производительность увеличилась до 191 RT TFLOPS по сравнению с 78 RT TFLOPS для GeForce RTX 3090 Ti.

Кроме того, третье поколение ядер RT получило такие функции, как Opacity Micro-Map Engines и Micro-Mesh Engines. Они представляют собой новые выделенные аппаратные блоки для ускорения особо требовательных вычислений трассировки лучей.

Здесь мы бы хотели более подробно остановиться на Opacity Micro-Maps и Displaced Micro-Meshes.

Opacity Micro-Maps представляют собой оптимизацию расчета трассировки лучей. Трассировка лучей не очень хорошо справляется с некоторыми объектами, например, листвой и растительностью. Лучи могут отражаться в бессчетных направлениях между листьями и ветвями, поэтому подобные объекты значительно осложняют трассировку. Третье поколение ядер RT может использовать Opacity Micro-Maps для присвоения статуса прозрачности подобным элементам, которые могут быть непрозрачными, прозрачными или неизвестными.

Для сложных объектов ранее трассировка лучей не использовалась или применялась в облегченном виде. Opacity Micro-Maps должны учитывать подобные объекты в будущем.

Ядра RT третьего поколения генерируют Displaced Micro-Meshes (DMM). Дерево BVH (bounding volume hierarchies), которое используется для трассировки лучей, будет строиться до 10 раз быстрее и потреблять в 20 раз меньше видеопамяти. NVIDIA описывает DMM следующим образом: «DMM – это новые примитивы, которые представляют собой структурированную сетку микро-треугольников, и ядра RT третьего поколения могут обрабатывать их в родном режиме. Что уменьшает требования к объему памяти при рендеринге сложной геометрии, которая использует только простые треугольники».

Четвертое поколение ядер Tensor и DLSS 3

Технология Deep Learning Super Sampling тоже получила обновление до третьей версией. Здесь используется 4-е поколение ядер Tensor, которое получило различные оптимизации. Например, новые ядра Tensor обеспечивают в пять раз более высокую пропускную способность вычислений FP8.

Для DLSS 3 используются так называемые ускорители Optical Flow. Они вычисляют пиксельные данные движения из последовательных кадров, используя нейросеть DLSS.

Альтернативные дизайны дополняют Founders Edition

NVIDIA выпустит видеокарты Founders Edition только на GeForce RTX 4090 и GeForce RTX 3080 16 GB. Видеокарты GeForce RTX 4080 12 GB выйдут только в альтернативных дизайнах от партнеров.

Все партнеры NVIDIA уже представили свои дизайны видеокарт, в том числе ASUS, Colorful, Gainward, Galaxy, Gigabyte, Inno3D, MSI, Palit, PNY и Zotac. Мы рассмотрим эти видеокарты в отдельной новости. Цены пока неизвестны.

Обновление: информация с Editors Day

NVIDIA на виртуальном мероприятии Editors Day опубликовала много дополнительной информации о новых видеокартах. Конечно, мы подготовили довольно детальную новость к анонсу GeForce RTX 4090, но в ней недоставало некоторых подробностей, что мы исправляем.

NVIDIA опубликовала диаграмму AD102 GPU и упомянула максимальный уровень расширения. Полная конфигурация AD102 GPU будет содержать до 18.432 вычислительных блоков FP32, 144 ядра RT и 576 ядер Tensor. Но NVIDIA пока не реализовала полный вариант ни на одной видеокарте, будь то GeForce RTX 4090 или RTX 6000 Ada Generation или L40.

Как и предполагалось, удвоения ROP не произошло. С архитектурой Ampere они мигрировали в Raster Engine, там и продолжают оставаться. У каждого Raster Engine имеются два раздела ROP, содержащие по восемь ROP. Остальная структура во многом идентична Ampere – за исключением числа SM и наличия ядер Tensor четвертого поколения и ядер RT третьего поколения.

Каждый SM содержит 64 вычислительных блоков FP32 и еще 64, способных выполнять вычисления FP32 или INT32. Кэш L1 по-прежнему составляет 128 кбайт.

Между тем NVIDIA раскрыла размер кэша L2. На полном AD102 GPU кэш L2 имеет емкость 98.304 кбайт, то есть почти 100 Мбайт. В степени расширения GeForce RTX 4090 GPU оснащен кэшем L2 емкостью 73.728 кбайт. Информации о чипе AD103 на видеокарте GeForce RTX 4080 с 16 GB или AD104 на GeForce RTX 4080 с 12 GB пока нет.

В другой презентации NVIDIA показала PCB видеокарты GeForce RTX 4090, которая оснащена системой питания с 23 фазами. 20 фаз отвечают за питание GPU, еще три – памяти. Управление системой питания было оптимизировано, чтобы избежать сильных пиков тока и напряжения. Хотя спецификация ATX 3.0 предусматривает большие пики, чем раньше.

Кулер видеокарт Founders Edition тоже был пересмотрен, теперь в него устанавливаются более крупные вентиляторы. Они увеличивают воздушный поток на 20% и улучшают охлаждение. Использованная память GDDR6X от Micron более экономична из-за нового техпроцесса, что позволило уменьшить температуры памяти на 10 °C.

В ближайшие дни мы подробно рассмотрим все инновации и подготовим обзорный материал к выходу GeForce RTX 4090.

Подписывайтесь на группу Hardwareluxx ВКонтакте и на наш канал в Telegram (@hardwareluxxrussia).

Мы рекомендуем ознакомиться с нашим руководством по выбору видеокарты для разных бюджетов.

40-я серия видеокарт от Nvidia. Беглый обзор новинки. MultiMart


Развитие технологий способно существенно преобразить современный мир. Яркий тому пример видеокарты 40-серии от Nvidia, которые были презентованы в конце сентября этого года. В серию включены две основных модели: 4090 (в продаже с октября) и 4080 (в продаже с ноября).


По заявлению производителя использование новой архитектуры Ada Lovelace позволяет увеличить производительность практически вчетверо, а внедрение искусственного интеллекта повысить зрелищность игр и ускорить рабочие процессы. Технология Reflex оптимизирует и перераспределяет нагрузку между центральным и графическим процессором, повышая быстродействие. Внешне карты выглядят довольно массивными. Преимущественно на базе сороковой серии они будут занимать 3-4 слота, но есть и исключения с подключением к двум портам.

Как изменится производительность если купить видеокарту Nvidia


Карты сороковой серии позволяют создавать игровой мир с трассировкой лучей, высокой детализацией в высоком разрешении. При этом производительность повышена в 2-4 раза. Увеличению скорости способствует не только новая архитектура, но еще и использование DLSS 3, которая, по сути, является комбинацией трех отдельных технологий. В результате скорость отклика сокращена до 10 миллисекунд.


Протестировать новую графику пользователи могут уже сейчас – выход режима Ray Tracing: Overdrive Mode наглядно демонстрирует прирост производительности при грамотном использовании настроек в играх и программах. Для доступа к расширенному функционалу потребуется обновить драйвера.


Во время работы с графическими программами сороковая видеокарта позволяет сократить время рендеринга вдвое, а также увеличить скорость экспорта видеоконтента. За счет аппаратного ускорения снижен битрейд без потери качества изображения.


Повышение скорости обновления кадров стало возможным благодаря использованию обновленного ускорителя оптических потоков, который передает информацию о движении пикселей в DLSS, генерирующего дополнительные кадры между первым и вторым за 5 мс и улучшающий изображение-оригинал. В результате количество кадров увеличивается, изображение в движении приобретает дополнительную четкость. Однако в некоторых случаях наблюдается замыливание фона из-за задержки, необходимой ИИ для создания допкадра.


Два энкодера AV1 повышают качество видео при снижении нагрузки за счет оптимизации конвейеров кодирования OBS как во время звонков, так и при ведении стримов. В программах видеомонтажа его работа заметна по сокращению времени обработки вдвое при использовании соответствующих плагинов Voukoder и Jianying.


Дополнительно были усовершенствован базовый функционал. Теперь можно создавать видео с разрешением 8К, быстро накладывать эффекты, устранять фоновые шумы. При этом сама Ada повышает скорость трассировки в реальном времени и производительность на этапе интерактивного трассирования пути.


Система охлаждения с родными кулерами довольно эффективна и работает тихо, под нагрузкой может быстро понизить температуру. Теплосъемная площадка при этом контактирует как с памятью, так и с чипами, что позволяет расположить их с одной стороны, повысив эффективность, а не как в предыдущих версиях с двух сторон.

Ada Lovelace и цены на видеокарты Nvidia


Относительно высокая стоимость новинки, а это на данный момент около 1600 долларов для серии 4090 и порядка 900-1200 долларов для серии 4080, обусловлена использованием новых технологий, в том числе нового техпроцесса. При этом насколько рекомендованная стоимость будет отличаться от реальной остается только догадываться.


В результате внедрения новых разработок и увеличения количества транзисторов до 76 млрд при использовании техпроцесса TSMC 4N архитектуру Ada Lovelace можно назвать одной из передовых. Ведь реальную конкуренцию ей могут составить только новинки от AMD в Radeon RX 7900.


Также графический процессор поддерживает DLSS 3.0 и производительность до 90 Тфлопс, используя тензорные и RT-ядра. При этом RT-ядра (третье поколение) были разработаны специально для ресурсоемких процессов трассировки на микросетке, а тензорные FP8 (4 поколение) отвечают за искусственный интеллект и увеличение пропускной способности.

Какую видеокарту купить в Минске: 4090 или 4080


GeForce RTX 4090 – это:

  • 24 Гб памяти в формате GDDR6X,
  • разрешение 4К с высокой частотой смены кадров,
  • полная трассировка лучей,
  • высокий уровень точности и реализма,
  • повышение производительности в 2 раза по сравнению с 3090 Ti,
  • увеличение скорости рендеринга в 2 раза.


GeForce RTX 4080 – это:

  • 16 Гб памяти в формате GDDR6X,
  • экономия до 10% энергии,
  • повышение производительности в 2 раза по сравнению с 3080 Ti,
  • многозадачность и рендеринг видео в формате 12К.


Основные различия между двумя моделями заключаются в количестве ядер (16 384 в 4090 и 9728 в 4080), тактовая частота с ускорением отличается на 0,01 Гц, а базовая на 0,02 в пользу 4090. При этом 4090 оснащают 24 Гб памяти против 16 у 4080, а разрядность шины составляет соответственно 384 и 256 бит. Все это сказывается по производительности, что наглядно показывают тесты и дает разницу порядка 30 процентов.

Минусы и проблемные места


Физический размер и вес довольно существенны. Так, длина составляет 304 мм, а, значит, карта поместится далеко не в каждый корпус, вес – около 4 кг. При этом сам производитель рекомендует использовать для 4090 блок питания на 850 Вт, а для 4080 на 750 Вт, т.к прогнозируемое энергопотребление составляет 450 и 320 Вт. Под нагрузкой потребление может увеличиться до 500 Вт, а при разгоне до 670-800 Вт.


Поэтому блок питания лучше выбирать с запасом, а также возможностью подключения 4 коннекторов питания. Подключение может быть прямое кабелем PCIe Gen 5 для новых моделей блоков со стандартом ATX 3.0 и через фирменный переходник, который под нагрузкой может плавиться или перегорать.


На начальном этапе отслеживаются проблемы с оптимизацией. Так, при включении DLSS 3 некоторые игры вылетают. Принцип ее работы заключен в дорисовке кадра, когда процессор не может сделать это самостоятельно, хотя это и не может повлиять на скорость, которая так важна в соревновательных играх. Повысить частоту смены кадров на 4К до 240 Гц невозможно из-за отсутствия порта DisplayPort 2.0. или 2.1. Скорость в данном случае будет ограничивать сам монитор.

Выводы


В целом прирост производительности 40 серии весьма впечатляет, хотя в реальности далеко не всегда он необходим. Мощностей видеокарт хватает для работы с видео, графикой и сокращения времени рейдеринга вдвое, а также запуска самых свежих геймерских новинок на ультранастройках. Качество изображения при соответствующей настройке действительно впечатляет, делая игровой процесс захватывающим и увлекательным.

обзор видеокарты, дата выхода, цена и характеристики

Видеокарта GeForce RTX 4090 была анонсирована 20 сентября 2022 года, а уже 12 октября первые партии поступили на полки магазинов. Этот невероятно мощный адаптер выдает такую производительность, что любые игры на максимальных настройках на нем просто летают. Действительно ли это пугающе большая видеокарта, сколько стоит RTX 4090 и другие важные вопросы касательно новинки — в нашем материале.

Основные характеристики

Видеокарта Nvidia GeForce rtx 4090 основана на архитектуре Ada Lovelace, благодаря чему отличается высокой мощностью и производительностью. По заверениям самой Nvidia, устройства на этой архитектуре в разы мощнее предшественников на Ampere, хотя они появились лишь в 2020 году.

 

Также у видеокарты огромное количество CUDA-ядер — целых 16 384 штук. Частота основного графического чипа может плавать между 2,23 и 2,52 ГГц, а количество быстрой видеопамяти GDDR6X составляет астрономические 24 ГБ.

Но впечатляющими получились не только технические характеристики, но также и удивительные для rtx 4090 размеры (340×150×75 мм) и питание. Видеокарта занимает целых четыре блока на материнской плате, а потребляет 450 Ватт — когда-то блоки питания с такими показателями считались чрезмерными для самых мощных компьютеров.

Тесты в играх

Разумеется, с такими показателями видеокарта rtx 4090 не могла плохо показать себя в тестах игр. Свой обзор ртх 4090 выпустил уже каждый уважающий себя техноблогер, так что информации о работе карты сейчас предостаточно.

Так, например, RTX 4090 — это первая видеокарта, которая в принципе смогла выдать 60 кадров в секунду (fps) в Cyberpunk 2077 на высоких настройках графики и с настоящим разрешением 4K. Более того, в тестировании TechSpot средний показатель составил целых 83 fps, серьезно оторвавшись от предыдущего лидера в лице прошлого флагмана RTX 3090 Ti.

В других тестах также никто не смог сравниться с видеокартой, причем в более высоком разрешении разрыв был сильнее. Так, например, в 1440p RTX 4090 обогнала предыдущие флагманы на 44-45%, а в 4K — уже на 59 и 71% соответственно. Временами разница между RTX 4090 и предыдущей самой мощной видеокартой Nvidia RTX 3090 Ti была практически двукратной:         

  • Watch Dogs: Legion в 4К и на очень высоких настройках: в среднем 141 fps у RTX 4090 и 88 fps у 3090 Ti;
  • Horizon Zero Dawn в 4K и на ультра-настройках: в среднем 157 fps у RTX 4090 и 102 fps у 3090 Ti;   
  • Far Cry 6 в 4K и на ультра-настройках: в среднем 164 fps у RTX 4090 и 109 fps у 3090 Ti;
  • Forza Horizon 5 в 4K и на экстремальных настройках: в среднем 147 fps у RTX 4090 и 94 fps у 3090 Ti.

После таких грандиозных показателей должно быть понятно, чем обусловлена ртх 4090 цена — ведь это первая видеокарта, способная тянуть все современные игры на максимальных настройках в высочайшем разрешении.

При этом в 1080p разница между графическими ускорителями не такая большая. Эксперты уверены, что проблема в современных процессорах — они становятся «бутылочным горлышком», поскольку не способны справляться со своей работой настолько же эффективно, как и RTX 4090. Несмотря на огромный задел на будущее, покупать новинку в разрешении Full HD не стоит — достаточно взглянуть на средние показатели среди топовых видеокарт.

DLSS 3.0

Еще одна отличительная особенность видеокарт от Nvidia — технология DLSS. Эта собственная разработка компании позволяет улучшить производительность за счет достраивания изображения с помощью нейронных сетей. Проще говоря, видеокарта обрабатывает картинку в более низком разрешении и делает это более быстро, а нейронные сети доводят изображение до нужной кондиции.

Новую версию DLSS 3.0 смогут опробовать только обладатели видеокарт серии RTX 40xx, и показатели RTX 4090 в играх с использованием этой технологии вырастают в два раза.

Так, например, видеокарта ртх 4090 в Cyberpunk 2077 со включенным на «ультра» рейтрейсингом в 4K и с максимальными настройками графики выдает 45 fps, а с DLSS 3.0 — 160. В свежей Marvel’s Spider-Man этот показатель при аналогичных настройках с применением технологии вырастает со 107 fps до 215.

Учитывая, что поддержку DLSS внедряют практически во все новинки, у RTX 4090 огромный запас на будущее, и ее владельцы еще долгие годы смогут играть во все новые игры на максимальных настройках в высочайшем разрешении.

Энергопотребление и нагрев

Однако отвечая себе на вопрос «сколько стоит ртх 4090», стоит помнить и о том, какое у rtx 4090 питание. Уже упомянутое энергопотребление в 450 Ватт встанет в копеечку и при покупке блока питания, и в счете за электричество, ведь при игре на максимальных настройках в Cyberpunk 2077 видеокарта действительно забирает порядка 405-415 Ватт.

Также стоит учитывать и то, что при высоких нагрузках карта заметно греется. Специалисты Digital Foundry зафиксировали максимальную температуру в 83 градуса внутри закрытого корпуса ПК — температура помещения в это время составляла 21 градус, тактовая частота чипа была порядка 2730 МГц, а среднее энергопотребление было около 410 Ватт.

Вывод

Подытоживая наш краткий обзор geforce rtx 4090, можно сказать, что это самая мощная игровая видеокарта на данный момент. Она способна запустить любые игры в 4K разрешении на максимальных настройках и выдать достойный fps, и сможет это делать ближайшие годы. Несмотря на огромное потребление энергии, карта все равно высокоэнергоэффективна в сравнении со своей производительностью. Так что приобретая RTX 4090, любой геймер будет обеспечен отличной графикой на годы вперед.

Присылайте нам свои обзоры техники и получайте до 1000 бонусов на карту «Эльдорадости»!

обзор характеристик и тесты производительности в играх

Видеокарта RTX A3000 Mobile была выпущена компанией NVIDIA. Видеокарта построена на архитектуре Ampere с кодовым названием GA104.

Частота ядра — 1080 MHz. Частота ядра в режиме Boost — 1560 MHz. Скорость текстурирования — 199.7 GTexel/s. Количество шейдерных процессоров — 4096. Технологический процесс — 8 nm. Количество транзисторов — 17400 million. Энергопотребление (TDP) — 130 Watt.

Тип памяти: GDDR6. Максимальный размер памяти — 6 GB. Ширина шины памяти — 192 bit. Частота памяти — 1500 MHz (12 Gbps effective). Пропускная способность памяти — 288 GB/s.

Бенчмарки










PassMark
G2D Mark

Top 1 GPU
This GPU


PassMark
G3D Mark

Top 1 GPU
This GPU


GFXBench 4. 0
Car Chase Offscreen

Top 1 GPU
This GPU

34770 Frames

20429 Frames

GFXBench 4.0
Car Chase Offscreen

Top 1 GPU
This GPU

34770.000 Fps

20429.000 Fps

GFXBench 4.0
Manhattan

Top 1 GPU
This GPU

27823 Frames

3710 Frames

GFXBench 4. 0
Manhattan

Top 1 GPU
This GPU

27823.000 Fps

3710.000 Fps

GFXBench 4.0
T-Rex

Top 1 GPU
This GPU

69225 Frames

3356 Frames

GFXBench 4.0
T-Rex

Top 1 GPU
This GPU

69225. 000 Fps

3356.000 Fps

Geekbench
OpenCL

Top 1 GPU
This GPU

214586












НазваниеЗначение
PassMark — G2D Mark473
PassMark — G3D Mark12640
GFXBench 4.0 — Car Chase Offscreen20429 Frames
GFXBench 4. 0 — Car Chase Offscreen20429.000 Fps
GFXBench 4.0 — Manhattan3710 Frames
GFXBench 4.0 — Manhattan3710.000 Fps
GFXBench 4.0 — T-Rex3356 Frames
GFXBench 4.0 — T-Rex3356.000 Fps
Geekbench — OpenCL80148

Характеристики





























АрхитектураAmpere
Кодовое имяGA104
Место в рейтинге129
Частота ядра в режиме Boost1560 MHz
Частота ядра1080 MHz
Технологический процесс8 nm
Peak Double Precision (FP64) Performance199. 7 GFLOPS (1:64)
Peak Half Precision (FP16) Performance12.78 TFLOPS (1:1)
Peak Single Precision (FP32) Performance12.78 TFLOPS
Количество шейдерных процессоров4096
Pixel fill rate99.84 GPixel/s
Скорость текстурирования199.7 GTexel/s
Энергопотребление (TDP)130 Watt
Количество транзисторов17400 million

ВидеоразъёмыNo outputs
ИнтерфейсPCIe 4. 0 x16
Дополнительные разъемы питанияNone
DirectX12.2
OpenCL3.0
OpenGL4.6
Shader Model6.6
Vulkan
Максимальный размер памяти6 GB
Пропускная способность памяти288 GB/s
Ширина шины памяти192 bit
Частота памяти1500 MHz (12 Gbps effective)
Тип памятиGDDR6

Навигация

Выберите видеокарту

Сравнение видеокарт

Сравнение NVIDIA RTX A3000 Mobile с другими видеокартами




NVIDIA
RTX A3000 Mobile



vs



AMD
Radeon PRO WX 9100




NVIDIA
RTX A3000 Mobile



vs



NVIDIA
Tesla V100 PCIe 32 GB




NVIDIA
RTX A3000 Mobile



vs



AMD
Radeon RX 580X




NVIDIA
RTX A3000 Mobile



vs



NVIDIA
GeForce RTX 2070 Max-Q




NVIDIA
RTX A3000 Mobile



vs



NVIDIA
Quadro RTX 4000




NVIDIA
RTX A3000 Mobile



vs



AMD
Radeon Pro Vega 64X

Обзоры видеокарт Nvidia | PCMag

Редакторы PCMag самостоятельно выбирают и рецензируют продукты. Если вы покупаете по партнерским ссылкам, мы можем получать комиссионные, которые помогают поддерживать наше тестирование.

Популярные бренды видеокарт

Все видеокарты

Последние обзоры видеокарт Nvidia

Nvidia GeForce RTX 4070 Ti обладает высокой производительностью, и это может быть отличная видеокарта… но только если цена будет подходящей.

$999,99

в B&H Фото Видео

(Открывается в новом окне)

04.01.2023
К
Майкл Джастин Аллен Секстон

GeForce RTX 4080 Founders Edition от Nvidia отлично подходит для игр в разрешении 4K, но эта гигантская видеокарта находится в сложном ценовом сегменте: геймеры, мотивированные потратить столько денег, скорее всего, перейдут на еще более быструю RTX 4090. технический триумф и карта, с которой нужно считаться.

1199,99 долларов США

по лучшей цене

(Открывается в новом окне)

15.11.2022
К
Майкл Джастин Аллен Секстон

4. 0

Выбор редакции

Огромная GeForce RTX 4090 Founders Edition от Nvidia — невероятно мощный дебют архитектуры «Ады Лавлейс». Единственный вопрос: вам действительно нужна такая мощность?

2389,00 долларов США

на Амазонке

(Открывается в новом окне)

11.10.2022
К
Майкл Джастин Аллен Секстон

Если вам нужна одна из самых быстрых видеокарт в мире, а стоимость не имеет значения, Nvidia GeForce RTX 3090 Founders Edition — прекрасный выбор. Но если деньги вообще имеют значение, другие графические процессоры GeForce RTX являются лучшим выбором.

1498,88 долларов США

на Амазонке

(Открывается в новом окне)

09.08.2022
К
Майкл Джастин Аллен Секстон

Zotac GeForce RTX 3080 Ti AMP HoloBlack лидирует в чартах по производительности игровой графики, но его цена второго ипотечного уровня пугает даже до того, как инфляция на рынке графических процессоров в 2021 году ударит по нему.

1799,99 долларов США

в Ньюэгг

(Открывается в новом окне)

14. 06.2021
К
Крис Стобинг

4.0

Выбор редакции

GeForce RTX 3070 Ti Founders Edition от Nvidia — это надежное обновление оригинальной RTX 3070 и разумный вариант для умеренной игры в разрешении 4K. Его более высокая цена противопоставляет его Radeon RX 6800, который временами превосходит его, но в конечном итоге карта GeForce побеждает.

599,99 долларов США

по лучшей цене

(Открывается в новом окне)

09.06.2021
К
Крис Стобинг

GeForce RTX 3080 Ti Founders Edition от Nvidia — еще одно потрясающее дополнение к линейке RTX 30 Series Founders и настоящий монстр для игр в разрешении 4K. Просто будьте готовы заплатить несоразмерную надбавку по сравнению с RTX 3080 за дополнительную мощность.

1349,98 долларов США

на Амазонке

(Открывается в новом окне)

02.06.2021
К
Крис Стобинг

Подходящая для игр с разрешением 1080p и 1440p версия EVGA XC Black Gaming 12G для GeForce RTX 3060 является способной производительностью, хотя собственная RTX 3060 Ti от Nvidia превосходит ее по стоимости.

$579,00

на Амазонке

(Открывается в новом окне)

25.02.2021
К
Крис Стобинг

4,5

Выбор редакции

Если вам нужно лучшее сочетание цены, производительности и возможностей для игр с разрешением 4K и 1440p, GeForce RTX 3060 Ti Founders Edition от Nvidia может сравниться только с ее родным братом RTX 3070. Эта карта имеет цену в 399 долларов и обеспечивает большую ценность.

469,99 долларов США

на Амазонке

(Открывается в новом окне)

01.12.2020
К
Крис Стобинг

5,0

Выбор редакции

Прекрасно спроектированная видеокарта RTX 3070 Founders Edition от Nvidia, ставшая продолжением своего убийцы GeForce RTX 3080, является практически идеальной видеокартой. Геймеры, стремящиеся к играм с высоким разрешением, высокой частотой обновления 1440p или 4K, найдут здесь лучший на сегодняшний день движок по соотношению цена-качество.

579,99 долларов США

на Амазонке

(Открывается в новом окне)

27. 10.2020
К
Крис Стобинг

Одна из версий Asus для убийственной RTX 3080, TUF Gaming GeForce RTX 3080 OC с тремя вентиляторами и длинной по сравнению с уникальной схемой охлаждения RTX 3080 Founders Edition. Это солидный спидстер, но он не может превзойти собственные усилия Nvidia на стандартных скоростях.

749,99 долларов США

в Ньюэгг

(Открывается в новом окне)

15.10.2020
К
Крис Стобинг

На первый взгляд, GeForce RTX 3080 Gaming X Trio 10G от MSI — это самая быстрая сторонняя версия RTX 3080, которую мы когда-либо видели, но ее титанический корпус и чрезмерные (тройные!) требования к разъему блока питания требуют от покупателей дополнительного внимания. .

759,99 долларов США

в Ньюэгг

(Открывается в новом окне)

15.10.2020
К
Крис Стобинг

4,5

Выбор редакции

Если вы являетесь нынешним (или начинающим) игроком в 4K, свирепая, революционная видеокарта Nvidia GeForce RTX 3080 — единственная, на которую стоит обратить внимание.

1103,99 долларов США

на Амазонке

(Открывается в новом окне)

16.09.2020
К
Крис Стобинг

4.0

Выбор редакции

Мощный GeForce GTX 1650 Super Twin Fan от Zotac заметно лучше, чем не-Super GTX 1650 и надежная версия этого основного графического процессора. Это дает геймерам с ограниченным бюджетом 1080p лучший вариант по сравнению с конкурирующими картами AMD в той же ценовой категории.

$172,99

на Амазонке

(Открывается в новом окне)

12.12.2019
К
Крис Стобинг

4.0

Выбор редакции

Если вы откладывали покупку основной видеокарты для игр с разрешением 1080p, GeForce GTX 1660 Super может стать для вас поводом для покупки: это надежно играющая и популярная по цене промежуточная точка между GTX 1660 и GTX. 1660 Ти.

239,99 долларов США

на Амазонке

(Открывается в новом окне)

29.10.2019
К
Крис Стобинг

Он не обеспечивает такого скачка производительности, как другие карты Nvidia RTX Super, но GeForce RTX 2080 Super — это мощная игровая видеокарта 4K, которая лучше оригинала, сохраняя при этом свою цену.

$849,95

на Амазонке

(Открывается в новом окне)

23.07.2019
К
Крис Стобинг

4,5

Выбор редакции

Обладая производительностью, близкой к RTX 2080, и аналогичными характеристиками, видеокарта Nvidia GeForce RTX 2070 Super идеально подходит для надежной игры в разрешении 4K с частотой 60 Гц и игрового процесса с высокой частотой обновления при разрешении 1440p. Это убийственная карта за деньги.

699,99 долларов США

на Амазонке

(Открывается в новом окне)

02.07.2019
К
Крис Стобинг

GeForce RTX 2060 Super от Nvidia находится на тонкой грани между видеокартой, созданной для киберспорта, и картой для игр AAA, и обеспечивает стабильную производительность с каждой стороны, где это наиболее важно.

799,99 долларов США

на Амазонке

(Открывается в новом окне)

02.07.2019
К
Крис Стобинг

GeForce GTX 1650 XLR8 Gaming Overclocked Edition от PNY — приемлемая компактная видеокарта для игр с разрешением 1080p, но цена должна значительно снизиться.

2200,26 долларов США

на Амазонке

(Открывается в новом окне)

30.04.2019
К
Крис Стобинг

Новейший графический процессор Nvidia для массового рынка, GeForce GTX 1660, предназначен для геймеров, которым требуется стабильная производительность со скоростью более 60 кадров в секунду в играх AAA с разрешением 1080p и даже более высокая частота кадров для киберспортивных игр. Версия Gigabyte OC хорошо справляется с этими задачами.

289,99 долларов США

на Амазонке

(Открывается в новом окне)

14.03.2019
К
Крис Стобинг

Реклама

Nvidia GeForce RTX 4090 Обзор: Королева замка

Когда вы покупаете по ссылкам на нашем сайте, мы можем получать партнерскую комиссию. Вот как это работает.

Выбор редакции

(Изображение: © Tom’s Hardware)

Аппаратный вердикт Тома

RTX 4090 отличается технологичностью и производительностью, легко превосходя предложения предыдущего поколения. Благодаря значительным усовершенствованиям всего основного оборудования и значительно более высоким тактовым частотам, а также перспективным технологиям, таким как DLSS 3, новая планка была установлена ​​очень высоко — с такой же высокой ценой.

ЛУЧШИЕ ПРЕДЛОЖЕНИЯ СЕГОДНЯ

Плюсы
  • +

    Самый быстрый графический процессор, в настоящее время доступный

  • +

    Основные архитектурные улучшения

  • +

    DLSS 3 Адреса CPU CPU.
    Минусы

    • Экстремальная цена и мощность

    • Ограниченное усиление при разрешении 1440p и ниже

    • Внедрение DLSS 3 потребует времени

    • Нам нужно увидеть AMD RDNA 3

    • Неизбежный RTX 4090 Ti вырисовывается

    Почему вы можете доверять Tom’s Hardware
    Наши эксперты-рецензенты часами тестируют и сравнивают продукты и услуги, чтобы вы могли выбрать лучшее для себя. Узнайте больше о том, как мы тестируем.

    Рекламный поезд Nvidia GeForce RTX 4090 создавался большую часть 2022 года. После более чем года экстремальных цен и нехватки графических процессоров генеральный директор Дженсен Хуанг сообщил, что ключевых деталей в GTC 2022 по цене, которая наверняка заставит многих вскрикнуть от отчаяния. 1599 долларов за топ-предложение от архитектуры Ады Лавлейс от Nvidia ? На самом деле, это всего на 100 долларов больше, чем у RTX 3090 при запуске, и если карта сможет приблизиться к заявлениям Nvidia о 2-4-кратном повышении производительности по сравнению с RTX 3090 Ti, несомненно, найдутся люди, готовые заплатить. RTX 4090 теперь находится на вершине в иерархии тестов GPU , по крайней мере, в 1440p и 4K. Для тех, кто ищет самый быстрый графический процессор, не говоря уже о цене, он теперь входит в число лучшие видеокарты .

    Это не значит, что RTX 4090 представляет собой хорошее значение , хотя это может быть немного субъективно. Глядя только на FPS, обеспечиваемый различными графическими процессорами на потраченный доллар, он занимает последнее место среди 68 графических процессоров за последнее десятилетие. За исключением того, что наш стандартный рейтинг использует сверхпроизводительность 1080p, и 4090 определенно не является картой, предназначенной для превосходства в 1080p. На самом деле, это так быстро, что узкие места процессора все еще вызывают беспокойство даже при игре в разрешении 1440p Ultra. Посмотрите на производительность 4K и учтите трассировку лучей, и вы можете утверждать, что это, возможно, один из лучших значений — понимаете, что мы имеем в виду, говоря, что значение является субъективным?

    Опять же, вы дорого заплатите за привилегию владеть картой RTX 4090, поскольку базовая модель RTX 4090 Founders Edition стоит 1599 долларов, а партнерские карты могут поднять цену до 1999 долларов. Но для тех, кто хочет лучшего, или для тех, у кого достаточно глубокие карманы, чтобы 2000 долларов не были большой проблемой, это карта, которую вы захотите получить прямо сейчас, и мы были бы удивлены, увидев, что что-то превзойдет ее в этом поколении. , если не считать будущей RTX 4090 Ти.

    Swipe to scroll horizontally

    .2)

    Current Top-Tier GPU Specifications
    Graphics Card RTX 4090 RTX 3090 Ti RTX 3090 RTX 3080 Ti RX 6950 XT Arc A770 16GB
    Архитектура AD102 GA102 GA102 GA102 GA102 GA102 GA102 GA102 608.4 628.4 628.4 628.4 519 406
    SMs / CUs / Xe-Cores 128 84 82 80 80 32
    GPU Shaders 16384 10752 10496 10240 5120 4096
    Tensor Cores 512 336 328 320 N/A 512
    Ray Tracing «Cores» 128 84 82 80 80 32
    Boost Clock (MHz) 2520 1860 1695 1665 2310 2100
    VRAM Speed ​​(Gbps) 21 21 19. 5 19 18 17.5
    VRAM (GB) 24 24 24 12 16 16
    VRAM Bus Width 384 384 384 384 256 256
    L2 / Infinity Cache 72 6 6 6 128 16
    ROPs 176 112 112 112 128 128
    TMUs 512 336 328 320 320 256
    TFLOPS FP32 82. 6 40 35.6 34.1 23.7 17.2
    TFLOPS FP16 (FP8/INT8) 661 (1321) 160 (320) 142 (285) 136 (273) 47.4 138 (275)
    Bandwidth (GBps) 1008 1008 936 912 576 560
    TDP (watts) 450 450 350 350 335 225
    Дата запуска Октябрь 2022 МАР 2022 SEP 2020 Jun 2021 May 202281

    jun 2021 May 202281

    jun 2021 May 202281

    $ 2021. 9 $1,999 $1,499 $1,199 $1,099 $349

    Here’s a look at the who’s who of the extreme performance graphics card world, with the fastest cards from Nvidia, AMD, and now Intel. Очевидно, что Intel Arc A770 конкурирует на совершенно другом игровом поле, но все же интересно показать, как он выглядит на бумаге.

    Мы собираемся просто отослать вас к нашему глубокому архитектурному погружению Nvidia Ada Lovelace , если вы хотите узнать обо всех новых технологиях и изменениях, внесенных в серию RTX 40. Приведенная выше таблица характеристик говорит многое из того, что вам нужно знать. Количество транзисторов увеличилось почти втрое по сравнению с Ampere; количество ядер у RTX 4090 на 52% выше, чем у RTX 3090 Ti; Тактовые частоты графического процессора на 35% выше, а память GDDR6X? Он по-прежнему в основном не изменился, за исключением того, что теперь кэш L2 увеличен в 12 раз, чтобы GPU не запрашивал данные из памяти так часто.

    На бумаге это дает RTX 4090 чуть более чем вдвое превышает вычислительную производительность RTX 3090 Ti, и определенно есть рабочие нагрузки, при которых вы увидите именно такой прирост. Но под капотом есть и другие изменения, которые могут еще больше увеличить разрыв.

    Трассировке лучей снова уделяется большое внимание, а три новые технологии — переупорядочивание выполнения шейдеров (SER), микрокарты непрозрачности (OMM) и смещенные микросетки (DMM) — предлагают потенциальные улучшения. Однако они также требуют, чтобы их использовали разработчики, а это означает, что существующие игры и движки от этого не выиграют.

    Рабочие нагрузки глубокого обучения и искусственного интеллекта также ждут масштабные улучшения. Ada включает в себя Transformer Engine FP8 от Hopper h200 , а также поддержку формата чисел FP8. Это означает удвоение вычислительной мощности на ядро ​​Tensor для алгоритмов, которые могут использовать FP8 вместо FP16, и до четырех раз большую вычислительную мощность по сравнению с 3090 Ti.

    Один из алгоритмов, который может использовать новые ядра Tensor вместе с улучшенным ускорителем оптического потока (OFA), — это DLSS 3. Фактически, Для DLSS 3 требуется видеокарта RTX 40-й серии , поэтому более ранние карты RTX не будут работать. Что делает DLSS 3? Он берет текущий и ранее обработанные кадры и создает дополнительный промежуточный кадр, чтобы заполнить пробел. В некоторых случаях он может почти удвоить производительность по сравнению с DLSS 2. Мы более подробно рассмотрим DLSS 3 позже в этом обзоре.

    С профессиональной точки зрения, особенно для тех, кто интересуется глубоким обучением, вы можете легко оправдать стоимость RTX 4090 — время — деньги, а удвоение или учетверение пропускной способности определенно сэкономит время. Создатели контента найдут для себя много интересного, и это быстрое и простое обновление с 3090 или 3090 Ti на 4090. Мы также рассмотрим производительность ProViz.

    А как же геймеры? В отличие от RTX 3090 и 3090 Ti, Nvidia не говорит о том, что RTX 4090 предназначена для профессионалов. Да, для таких людей он отлично подойдет, но он также является частью семейства GeForce, и Nvidia не сдерживает своих заявлений о производительности в играх и сравнений. Возможно, виноваты последние два года майнинга криптовалюты, хотя майнинг на GPU теперь убыточен , так что, по крайней мере, геймерам не придется драться с майнерами за карты в этом раунде.

    • MORE:  ​​ Best Graphics Cards ​​
    • MORE:  ​​ GPU Benchmarks and Hierarchy ​​
    • MORE:  ​​ All Graphics Content ​​
    • Nvidia RTX 4090 at Amazon for $1,889.67

    Nvidia RTX 4090: Сравнение цен

    15 отзывов покупателей Amazon (открывается в новой вкладке)

    ☆☆☆☆☆

    (открывается в новой вкладке)

    (открывается в новой вкладке)0003

    $ 1,709,99

    (Opensen in New Tab)

    Просмотр (Opens in New Tab)

    (Opens in New Tab)

    (Opens In New Tab)

    $ 1 889,67

    (Opens In New)

    667

    (Opens in new)

    667

    (Opens In New)

    667. (открывается в новой вкладке)

    (открывается в новой вкладке)

    (открывается в новой вкладке)

    (открывается в новой вкладке)

    2 129,99 $

    (открывается в новой вкладке)

    вкладка)

    Вид (открывается в новой вкладке)

    Цена со скидкой

    (открывается в новой вкладке)

    (открывается в новой вкладке)

    2 499,99 $

    (открывается в новой вкладке)

    2 130 $

    (открывается в новой вкладке 3)

    Цена снижена

    на базе

    • 1

    Текущая страница:
    Встречайте Nvidia GeForce RTX 4090

    Следующая страница Nvidia GeForce RTX 4090 Founders Edition

    Джарред Уолтон — старший редактор Tom’s Hardware, специализирующийся на GPU. Он работает техническим журналистом с 2004 года, пишет для AnandTech, Maximum PC и PC Gamer. От первых «3D-замедлителей» S3 Virge до современных графических процессоров — Джарред следит за всеми последними графическими тенденциями и всегда задает вопросы о производительности игр.

    Обзор

    Nvidia GeForce RTX 4070 Ti: дорогой графический процессор класса 70

    При покупке по ссылкам на нашем сайте мы можем получать партнерскую комиссию. Вот как это работает.

    (Изображение: © Tom’s Hardware)

    Аппаратный вердикт Тома

    RTX 4070 Ti знаменует собой третью запись в обзоре Ады Лавлейс, снижая цену входа до почти приемлемых 799 долларов. Исходная производительность в основном на уровне RTX 3090, но с вдвое меньшей памятью и более низким энергопотреблением, в то время как DLSS 3 надеется сделать картину производительности немного более радужной.

    Плюсы
    • +

      Большой прыжок в производительности поколений

    • +

      Очень эффективная видеокарта

    • +

      DLSS 3 мая. И все же, доказывающая полезной

    • +

      Good Ray Tracing Hardware

    • 7

    • +

      Good Ray Tracing Hardware

    • 7

      7

    • +

      Good Ray TrageWare

    • 7

    • +

      .
      Минусы

      • Большой скачок в цене

      • DLSS 3 увеличивает задержку

      • Бесполезный 16-контактный разъем питания

        Почему вы можете доверять Tom’s Hardware
        Наши эксперты-рецензенты часами тестируют и сравнивают продукты и услуги, чтобы вы могли выбрать лучшее для себя. Узнайте больше о том, как мы тестируем.

        GeForce RTX 4070 Ti от Nvidia может считаться самым сокровенным «секретом» видеокарт за последние несколько десятилетий. Первоначально представленный еще в октябре как RTX 4080 12 ГБ, который позже был «не выпущен», основные характеристики и аппаратное обеспечение не изменились — только цена и название являются новыми. Следуя по стопам более мощных RTX 4090 и RTX 4080 , карты официально поступят в продажу завтра, 5 января 2023 года. За исключением того, что обзоры могут появиться на день раньше, поэтому потенциальные покупатели, по крайней мере, получат несколько советов, прежде чем покупать. погружение.

        Войдет ли RTX 4070 Ti в число лучших видеокарт ? Это сложный вызов, о котором мы поговорим подробнее в этом обзоре. Что мы можем сказать, так это то, что, основываясь на тестировании иерархии тестов графического процессора , он быстрее, чем большинство предложений 30-й серии, и в основном связывает RTX 3090 по более низкой цене. Это хорошая новость. Плохая новость заключается в том, что это, безусловно, самая дорогая видеокарта класса xx70, которую когда-либо выпускала Nvidia. Мы ушли от 329 долларов за GTX 9От 70 до 379 долларов за GTX 1070, затем 499 долларов за RTX 2070 и 2070 Super, 499 долларов за RTX 3070, а также 599 долларов за 3070 Ti, а теперь мы смотрим на 799 долларов за RTX 4070 Ti.

        Таким образом, то, о чем мы на самом деле говорим, больше похоже на замену RTX 3080 12 ГБ . Nvidia никогда не давала официальной рекомендованной розничной цены, но мы ненадолго увидели, как цены упали в диапазон 700–800 долларов, прежде чем предложение явно иссякло. Если бы не бум криптовалюты 2020–2022 годов, 3080 12 ГБ и 3080 Ti, вероятно, оказались бы в цене 800–9 долларов.диапазон 00. Теперь Ethereum прошел доказательство доли , и прибыль от майнинга криптовалюты упала в унитаз, но, похоже, мы все еще смотрим на цены на видеокарты, завышенные из-за майнинга.

        Существуют и альтернативные взгляды на вещи. У нас нет точных данных о том, сколько карт было продано, но все карты RTX 4090 в рознице по-прежнему продаются по цене более 2000 долларов. Карты RTX 4080 (открывается в новой вкладке) тем временем кажутся относительно доступными по цене, близкой к их базовой цене в 1200 долларов, но на самом деле ни одна из них не продается по этой цене или ниже. То же самое и с Новые AMD RX 7900 XTX и RX 7900 XT (открывается в новой вкладке), последний из которых можно найти за 899 долларов, в то время как первый в основном распродан, и часто стоит 1200 долларов или больше (открывается в новой вкладке) .

        Другими словами, спрос со стороны людей с глубокими кошельками настолько велик, что более новые, более быстрые графические карты по более низким ценам — это фантазия, которую мы не собираемся испытывать. Мы слышали некоторые предположения о том, что цены на RTX 4090, в частности, сильно завышены из-за спроса со стороны профессионального сектора — если все, что вам нужно, — это чудовище для обработки чисел для исследований искусственного интеллекта, 4090 за 2000 долларов на самом деле отличная сделка по сравнению с 5000–10 000 долларов за настоящие профессиональные карты, которые могут быть даже не такими быстрыми! Но как далеко это зайдет, прежде чем такие профессионалы просто выберут более быструю карту?

        Надеюсь, не до 800 долларов, и мы также надеемся, что спекулянты не будут пытаться скупить каждую карту, а затем перепродать их на eBay. Но нам, вероятно, нужно гораздо больше, чем просто надеяться на то, что любой из них будет вероятным.

        Ранее мы уже рассматривали архитектуру Ады Лавлейс от Nvidia , поэтому единственный реальный вопрос сейчас заключается в том, как производительность снижается до графического процессора AD104 с меньшим количеством шейдеров, меньшим объемом памяти, меньшим объемом кэш-памяти, более узким интерфейсом памяти и т. д. Утечка данных о обновленной RTX 4080 12 ГБ предполагает, что она будет около 20–25. процентов медленнее, чем RTX 4080… что ставит его на территорию RTX 3090. Вот характеристики карт Nvidia нового и предыдущего поколения, а также новые предложения AMD RX 7900.

        Проведите по экрану для горизонтальной прокрутки

        99 (238)

        Nvidia and AMD GPU Specifications
        Graphics Card RTX 4070 Ti RTX 4090 RTX 4080 RTX 3090 Ti RTX 3080 Ti RTX 3080 RTX 3070 Ti RX 7900 XTX RX 7900 XT
        Architecture AD104 AD102 AD103 GA102 GA102 GA102 GA104 Navi 31 Navi 31
        Process Technology TSMC 4N TSMC 4N TSMC 4N Samsung 8N Samsung 8N Samsung 8N Samsung 8N TSMC N5 + N6 TSMC N5 + N6
        Transistors (Billion) 35. 8 76.3 45.9 28.3 28.3 28.3 17.4 45.6 + 6x 2.05 45.6 + 5x 2.05 92) 294.5 608.4 378.6 628.4 628.4 628.4 392.5 300 + 222 300 + 185
        SMs 60 128 76 84 80 68 48 96 84
        GPU Shaders 7680 16384 9728 10752 10240 8704 6144 12288 10752
        Tensor Cores 240 512 304 336 320 272 192 N/A N/A
        Ray Tracing «Cores» 60 128 76 84 80 68 48 96 84
        Boost Clock (MHz) 2610 2520 2505 1860 1665 1710 1765 2500 2400
        VRAM Speed ​​(Gbps) 21 21 22. 4 21 19 19 19 20 20
        VRAM (GB) 12 24 16 24 12 10 8 24 20
        VRAM Bus Width 192 384 256 384 384 320 256 384 320
        L2 Cache 48 72 64 6 6 5 4 96 80
        ROPs 80 176 112 112 112 96 96 192 192
        TMUs 240 512 304 336 320 272 192 384 336
        TFLOPS FP32 40. 1 82.6 48.7 40 34.1 29.8 21.7 61.4 51.6
        TFLOPS FP16 (FP8/INT8) 321 (641) 661 (1321) 390 (780) 160 (320) 136 (273) 119 (238) 87 (174) 87 (174)

        87.

        Bandwidth (GBps) 504 1008 717 1008 912 760 608 960 800
        TBP (watts) 285 450 320 450 350 320 290 355 300
        Launch Date Jan-23 Oct-22 Nov-22 Mar-22 Jun-21 Sep-20 Jun-21 Dec-22 Dec-22
        Launch Price $799 $1,599 $1,199 $1,999 $1,199 $699 $599 $999 $899

        Ранее мы упоминали, что Nvidia, похоже, пытается расширить диапазон производительности, предлагаемой серией RTX 40, и то же самое произошло с серией RTX 30. От самого быстрого до самого медленного графического процессора серии RTX 20 производительность RTX 2080 Ti примерно вдвое превышала производительность RTX 2060 . Между тем, RTX 3090 Ti последнего поколения в три раза быстрее, чем RTX 3050 . В настоящее время у нас даже нет оригинальной RTX 4070, не говоря уже о будущей RTX 4050, и мы уже смотрим на потенциально удвоение производительности по сравнению с более крупной и дорогой RTX 409.0.

        Вещи, конечно, не будут идеально масштабироваться, но у 4090 более чем в два раза больше графических шейдеров, тензорных ядер, ядер RT и т. д. У него также ровно вдвое больше памяти и пропускной способности памяти, но только на 50%. больше кэша L2. Будут рабочие нагрузки — на ум приходят такие вещи, как обучение ИИ и вывод — когда карта, которая стоит в два раза дороже, будет обеспечивать вдвое большую производительность и потреблять вдвое больше энергии. Но скоро мы доберемся до бенчмарков.

        Как насчет AMD RX 79Карты серии 00? RX 7900 XT стоит на 100 долларов дороже, чем 4070 Ti, и, по крайней мере, в некоторых областях он выглядит превосходным. Например, цифры в терафлопсах превосходят GPU AMD почти на 30%, а AMD предоставляет пользователям на 67% больше памяти с увеличенной на 59% пропускной способностью памяти. Нет никаких сомнений в том, что Nvidia по-прежнему будет впереди, когда дело доходит до производительности трассировки лучей и рабочих нагрузок глубокого обучения, но для растеризации AMD может выйти вперед. Но тогда мы также должны спросить: хотите ли вы потратить почти 1000 долларов на видеокарту, которая отводит трассировку лучей на второй уровень?

        Конечно, мы понимаем: по-прежнему не так много игр, в которых требуется трассировка лучей, и довольно много игр, которые поддерживают трассировку лучей, похоже, используют ее только для скромного улучшения качества изображения, немного снижая производительность. Но есть и игр, таких как Control и Cyberpunk 2077, где это может иметь значение, поэтому потратить немного больше — или, в данном случае, потенциально сэкономить деньги — для получения превосходного набора функций — это то, на что многие геймеры, похоже, готовы пойти.

        Изображение 1 из 2

        RTX 4070 Ti имеет пять кластеров обработки графики (GPC), 60 потоковых мультипроцессоров (SM) и 48 МБ кэш-памяти L2. Это полная реализация AD104, за исключением того, что три модуля NVDEC отключены. (Изображение предоставлено Tom’s Hardware) Полная реализация AD104 включает четыре блока NVDEC, которые, вероятно, будут использоваться в будущих профессиональных картах, предназначенных для приложений потокового видео. (Изображение предоставлено Tom’s Hardware)

        Помимо всего обычного графического оборудования, последние графические процессоры Nvidia Ada Lovelace имеют несколько дополнительных функций. AMD по-прежнему не имеет эквивалента ядра Tensor — ее ускорители искусственного интеллекта используют те же исполнительные блоки, что и шейдеры графического процессора — это означает, что при рабочих нагрузках FP16 пропускная способность 4070 Ti потенциально втрое превышает пропускную способность RX 79.00 ХТ. А для логического вывода ИИ, который может использовать аппаратное обеспечение FP8, Nvidia снова удваивает производительность.

        Существует также усовершенствованный ускоритель оптического потока (OFA), который поддерживает алгоритм DLSS 3 и может использоваться для других задач, связанных с видео. Nvidia говорит, что более 50 игр с DLSS 3 находятся в разработке, и около 15 из них уже доступны. Еще лучшая новость заключается в том, что каждая из этих игр с DLSS 3 также поддерживает DLSS 2 и Reflex, а это означает, что любой, у кого есть карта RTX, может выиграть, но не с генерацией кадров.

        Если вы заинтересованы в исследованиях ИИ, особенно не тратя деньги на профессиональную рабочую станцию, карты Nvidia GeForce, безусловно, заслуживают вашего внимания. Уже доступно довольно много инструментов ИИ, в том числе такие, как Stable Diffusion, ChatGPT и другие. Можно заставить эти инструменты работать на графических процессорах сторонних производителей, но после нескольких месяцев поиска хорошего эталонного теста ИИ я могу сказать, что многие инструменты с открытым исходным кодом ориентированы на Nvidia, в то время как графические процессоры AMD (или Intel) в лучшем случае второстепенны.

        • Подробнее: Лучшие видеокарты
        • Подробнее: .
          • 1

          Текущая страница:
          Обзор Nvidia GeForce RTX 4070 Ti

          Следующая страница Дизайн и сборка Nvidia RTX 4070 Ti

          Джарред Уолтон — старший редактор Tom’s Hardware, специализирующийся на GPU. Он работает техническим журналистом с 2004 года, пишет для AnandTech, Maximum PC и PC Gamer. От первых «3D-замедлителей» S3 Virge до современных графических процессоров — Джарред следит за всеми последними графическими тенденциями и всегда задает вопросы о производительности игр.

          Обзор Intel Arc A380: отлично подходит для видео, слабо подходит для игр

          При покупке по ссылкам на нашем сайте мы можем получать партнерскую комиссию. Вот как это работает.

          Intel нужно больше, чем алхимик, чтобы спасти эту тонущую дугу

          (Изображение: © Tom’s Hardware)

          Аппаратный вердикт Тома

          Intel Arc A380 предоставляет слишком мало и слишком поздно для большинства людей. У него впечатляющее аппаратное обеспечение для кодирования видео, но игровая производительность варьируется от приемлемой до ужасной, в то время как Intel продолжает работать над драйверами. Это не самая плохая видеокарта, которую мы видели, но есть много вариантов получше.

          Минусы
          • Плохая производительность в играх

          • Подходит только для GTX 1060 6 ГБ 2016 года выпуска

          • Что с 8-контактным разъемом питания?

          • Проблемы с драйверами и неработающие функции

          Почему вы можете доверять Tom’s Hardware
          Наши эксперты-рецензенты часами тестируют и сравнивают продукты и услуги, чтобы вы могли выбрать лучшее для себя. Узнайте больше о том, как мы тестируем.

          Intel Arc A380 должен быть одним из худших запусков графических карт в истории — не обязательно само оборудование, а розничный запуск оборудования. Судя по всему, Intel знала, что драйверы сломаны, когда аппаратное обеспечение было готово к выпуску в начале этого года. Вместо того, чтобы тратить достаточно времени на исправление драйверов перед розничным запуском, а часы тикают, поскольку на горизонте появляются новые графические процессоры AMD и Nvidia, Intel решила сначала поставлять свои графические процессоры Arc в Китай — вероятно, не тот подход, который компания сделала бы. брать, если продукт был достоин попадания в наш список лучшие видеокарты .

          Несколько месяцев спустя, после большого количества негативной рекламы графических процессоров, которые пробились на другие берега, и с многочисленными обновлениями драйверов, Arc A380 официально запустили в США со стартовой ценой 139 долларов США (открывается в новая вкладка). Единственное предложение на Newegg распродано и в настоящее время снова заказано, но это, вероятно, больше связано с ограниченным предложением, чем с высоким спросом. Тем не менее, A380 не так уж и плох, и мы рады видеть, что Team Blue возвращается на рынок выделенных графических процессоров впервые за более чем 24 года. (И нет, я действительно не считаю Intel DG1 прошлого года , так как он работал только на определенных материнских платах.)

          Как Arc A380 выглядит по сравнению с конкурирующими графическими процессорами AMD и Nvidia, и что за шумиха вокруг аппаратного ускорения кодирования AV1? Вы можете увидеть, где он находится в нашей иерархии тестов графического процессора , что, если хотите спойлер,… не очень хорошо. Но давайте перейдем к деталям.

          Обзор архитектуры Arc Alchemist

          (Изображение предоставлено Intel)

          Мы подробно рассказали о Архитектура Intel Arc Alchemist , созданная около года назад. В то время, когда мы впервые написали эту статью, мы ожидали запуска в конце 2021 или начале 2022 года. Это превратилось в запланированный запуск в марте 2022 года, а затем в выпуск в середине 2022 года — и это даже не полный выпуск, по крайней мере, пока. Arc A380 — это всего лишь первый залп в самом низу лестницы цены и производительности. Мы видели много намеков на более быстрый Arc A750 , который, кажется, близок к 9. Производительность 0235 RTX 3060 основана на собственных тестах Intel, которые должны быть запущены в течение следующего месяца или около того. Как насчет еще более быстрого Arc A770 или Arc A580 среднего уровня и других продуктов? Время покажет.

          Arc Alchemist представляет собой расхождение с предыдущими графическими решениями Intel. Некоторые элементы, вероятно, во многом совпадают, но Intel изменила названия некоторых основных строительных блоков. Ушли в прошлое «исполнительные блоки (EU)», которые теперь называются векторными двигателями (VE). Каждая виртуальная среда может выполнять восемь операций FP32 за цикл, которые в общих чертах переводятся в «ядра графического процессора» или шейдеры графического процессора и примерно эквивалентны шейдерам AMD и Nvidia.

          Intel объединяет 16 VE в одно ядро ​​Xe-Core, которое также включает в себя другие функции. Таким образом, каждое Xe-Core имеет 128 шейдерных ядер и примерно соответствует вычислительному блоку AMD (CU) или потоковому мультипроцессору Nvidia (SM). В основном все они представляют собой проекты SIMD (одна инструкция и несколько данных), и, как и у конкурентов, Arc Alchemist улучшил шейдеры, чтобы они соответствовали полному набору функций DirectX 12 Ultimate.

          (Изображение предоставлено Intel)

          Это, естественно, означает, что аппаратное обеспечение для трассировки лучей встроено в конструкцию, а у Intel есть по одному блоку трассировки лучей (RTU) на каждое ядро ​​Xe-Core. Точные детали аппаратного обеспечения трассировки лучей пока не совсем ясны, хотя на основе тестирования каждый Intel RTU может прилично соответствовать ядру Nvidia Ampere RT.

          Intel не остановилась на достигнутом. Наряду с VE, RTU и другим типичным графическим оборудованием Intel также добавила Matrix Engines, которые она называет XMX Engines (Xe Matrix eXtensions). В принципе они похожи на тензорные ядра Nvidia и предназначены для обработки множества менее точных данных для машинного обучения и других целей. XMX Engine имеет разрядность 1024 бита и может обрабатывать либо 64 операции FP16, либо 128 операций INT8 за цикл, что дает графическим процессорам Arc относительно большую вычислительную мощность.

          Технические характеристики Intel Arc A380

          После краткого обзора архитектуры приведем характеристики Arc A380 в сравнении с парой конкурирующих графических процессоров AMD и Nvidia. Хотя мы приводим здесь теоретическую производительность, помните, что не все терафлопсы и тераоперации одинаковы. Нам нужно тестирование в реальных условиях, чтобы увидеть, какую реальную производительность может обеспечить архитектура.

          Проведите по экрану для горизонтальной прокрутки

          . .264, H.265 (Вольта)

          Характеристики графического процессора
          Graphics Card Arc A380 RX 6500 XT RX 6400 GTX 1650 Super GTX 1650
          Architecture ACM-G11 Navi 24 Navi 24 TU116 TU117
          Process Technology TSMC N6 TSMC N6 TSMC N6 TSMC 12FFN TSMC 12FFN
          Transistors (Billion) 92) 157 107 107 284 200
          SMs / CUs / Xe-Cores 8 16 12 20 14
          GPU Cores ( Shaders) 1024 1024 768 1280 896
          Tensor Cores 128
          Ray Tracing ‘Cores’ 8 16 12
          Base Clock (MHz) 2000 2310 1923 1530 1485
          Boost Clock (MHz) 2450 2815 2321 1725 1665
          VRAM Speed ​​(Gbps) 15. 5 18 16 12 8
          VRAM (GB) 6 4 4 4 4
          VRAM Bus Width 96 64 64 128 128
          ROPs 32 32 32 48 32
          TMUs 64 64 48 80 56
          TFLOPS FP32 (Boost) 5 5.8 3.6 4.4 3
          TFLOPS FP16 (MXM/Tensor if Available) 40 11. 6 7.2 8.8 6
          Bandwidth (GBps) 186 144 128 192 128
          Кодирование видео
          TDP (watts) 75 107 53 100 75
          Launch Date Jun 2022 Jan 2022 Jan 2022 Nov 2019 Apr 2019
          Прайс стартовой цена $ 139 $ 199 $ 159 $ 159 $ 149

          9000.

          .0235 AMD RX 6500 XT и RX 6400 или GTX 1650 Super и Nvidia GTX 1650 . Цена немного ниже, чем у конкурентов, особенно учитывая текущие онлайн-цены на новые карты с примерно аналогичными функциями. Однако следует отметить некоторые важные оговорки.

          У Nvidia нет оборудования для трассировки лучей ниже RTX 3050 (или RTX 2060). Точно так же ни один из графических процессоров AMD или Nvidia в этом сегменте также не поддерживает тензорное оборудование, что дает Intel потенциальное преимущество в приложениях для глубокого обучения и искусственного интеллекта — мы включили пропускную способность FP16 для ядер графического процессора на картах AMD и Nvidia для справки, хотя это не совсем яблоки к яблокам.

          Intel — единственная компания, выпускающая графические процессоры, которая в настоящее время использует кодирование видео с аппаратным ускорением AV1 и VP9. Мы ожидаем, что AMD и Nvidia добавят поддержку AV1 в свои будущие архитектуры RDNA 3 и Ada и, возможно, также в VP9, ​​но у нас нет официального подтверждения того, как это будет происходить. Мы также рассмотрим производительность и качество кодирования позже в этом обзоре, хотя обратите внимание, что GTX 1650 использует старое оборудование NVENC от Nvidia, которое обеспечивает более низкое качество вывода, чем более новая версия Turing (и Ampere).

          Теоретическая вычислительная производительность Arc A380 составляет 5,0 терафлопс, что немного отстает от RX 6500 XT, но опережает все остальные. Кроме того, это единственный GPU в этом ценовом классе с 6 ГБ памяти GDDR6 и 96-битным интерфейсом памяти. Это дает A380 большую пропускную способность памяти, чем у AMD, но без Infinity Cache, и меньшую пропускную способность памяти, чем у графических процессоров Nvidia. Целевое энергопотребление составляет 75 Вт, хотя разогнанные карты могут превышать это значение, как и в случае с графическими процессорами AMD и Nvidia.

          (Изображение предоставлено Tom’s Hardware)

          Возможности трассировки лучей сложнее определить. Напомним, что архитектура Turing от Nvidia на графических процессорах RTX 20-й серии имеет полные возможности аппаратной трассировки лучей, и каждое ядро ​​RT может выполнять одно вычисление пересечения луча/треугольника за цикл, а также имеется аппаратная поддержка обхода BVH (иерархия ограничивающих объемов). Неясно, сколько пересечений луча/блока BVH за цикл обрабатывают ядра RT, поскольку, насколько мне известно, Nvidia не предоставила никакого конкретного числа.

          В архитектуре Nvidia Ampere к ядрам RT добавлен блок пересечения второго луча и треугольника, что потенциально удваивает пропускную способность. (Похоже, что в большинстве случаев аппаратное обеспечение Turing BVH было «быстрее», чем аппаратное обеспечение луча/треугольника, поэтому Ampere сосредоточился на улучшении скорости треугольников.) На практике, по словам Nvidia, ядра Ampere RT обычно на 75% быстрее, чем ядра Turing RT, поскольку Ampere не всегда может заполнить все слоты исполнения лучей/треугольников.

          Архитектура AMD RDNA 2 работает немного по-другому. Он может выполнять одно вычисление пересечения луча/треугольника за цикл на каждом ускорителе лучей, в основном как Тьюринг. Однако он использует шейдеры графического процессора (технически текстурные блоки) для обхода BVH со скоростью четырех пересечений луча/блока за цикл. Теоретически эта скорость не так уж и плоха, учитывая количество текстурных блоков в RDNA 2, но работа BVH в конечном итоге конфликтует с другими шейдерами и работой с текстурами. В конечном счете, это делает нынешние ускорители AMD Ray более медленными и менее эффективными, чем ядра Nvidia RT, и, возможно, более требовательными к памяти (судя по реальной производительности).

          RTU от Intel аналогичны ядрам Nvidia RT тем, что они могут аппаратно выполнять как пересечение лучей/прямоугольников, так и пересечений лучей/треугольников. Приведенное выше видео объясняет ситуацию более подробно, но необработанная пропускная способность составляет до 12 пересечений луча/блока BVH за цикл и одно пересечение луча/треугольника за цикл на каждый RTU. У Intel также есть выделенный кэш BVH для повышения частоты попаданий и производительности, а также блок сортировки потоков, который оптимизирует выходные данные RTU, чтобы лучше соответствовать рабочим нагрузкам шейдинга для Xe-Cores.

          Intel более или менее заявляет, что ее RTU на самом деле более производительны, чем ядра Nvidia Ampere RT, что также означает, что RTU лучше, чем Turing и RDNA 2. Чтобы доказать это, Intel продемонстрировала производительность трассировки лучей в 17 играх, сравнив Arc A770 с RTX 3060.

          (Изображение предоставлено Intel)

          быстрее, чем RTX 3060. Конечно, это не A380, и есть много других факторов, влияющих на игровую производительность, поскольку мы еще не занимаемся чистой трассировкой лучей. A770 также имеет 32 RTU по сравнению с 30 ядрами RT у RTX 3060. Тем не менее, RTU от Intel на бумаге звучат довольно прилично.

          Дело в том, что с восемью RTU A380 определенно не станет мощным двигателем трассировки лучей — например, Nvidia имеет 20 или более ядер RT в своей линейке RTX или 16, если вы включите в список мобильную RTX 3050, Самый медленный чип RTX от Nvidia. AMD, с другой стороны, имеет всего 12 Ray Accelerators в своих компонентах серии RX 6000, а интегрированные реализации RDNA 2, такие как Steam Deck, могут иметь всего восемь RA, хотя производительность RT по понятным причинам сильно страдает — не то, что вам нужно трассировка лучей, даже через четыре года после того, как аппаратное обеспечение впервые поддержало эту функциональность.

          • Подробнее: Лучшие видеокарты
          • Подробнее: .
            • 1

            Текущая страница:
            Обзор Intel Arc A380

            Следующая страница Gunnir Arc A380 Photon

            Джарред Уолтон — старший редактор Tom’s Hardware, специализирующийся на GPU. Он работает техническим журналистом с 2004 года, пишет для AnandTech, Maximum PC и PC Gamer. От первых «3D-замедлителей» S3 Virge до современных графических процессоров — Джарред следит за всеми последними графическими тенденциями и всегда задает вопросы о производительности игр.

            Лучшая видеокарта Nvidia 2023

            Мы только что представили новое поколение видеокарт, а это значит, что у каждого геймера на устах возникает один большой вопрос: какую видеокарту Nvidia лучше купить в 2023 году?

            Если вы не привержены бренду Nvidia и готовы вместо этого купить карту AMD, мы рекомендуем вместо этого ознакомиться с нашим более общим руководством по лучшим видеокартам.

            Но если вы лояльны к Nvidia и не хотите упускать такие функции, как DLSS, то вы попали по адресу. Мы выбрали лучшие карты Nvidia, которые мы рассмотрели, включая выбор для различных целевых показателей производительности, независимо от того, хотите ли вы недорогой графический процессор Full HD или вам нужна максимальная игровая мощность.

            Каждая карта, представленная в этом списке, была тщательно протестирована, так как наша команда экспертов обязательно использует при тестировании как синтетические тесты, так и игровую производительность в реальном времени. Мы также проверяем энергопотребление и тепловые характеристики, чтобы всесторонне взглянуть на каждый графический процессор.

            В ближайшее время мы также рассмотрим все новые карты Nvidia, включая RTX 4080. Поэтому, если вы пока не можете найти графический процессор Nvidia по своему вкусу, обязательно вернитесь к этой статье позже.

            Кратко

            • Самая мощная видеокарта: Nvidia GeForce RTX 4090 — проверить цену
            • Лучшая для игр в формате 4K: Nvidia GeForce RTX 3080 Ti — проверить цену
            • Лучшая видеокарта среднего класса: Nvidia GeForce RTX 3060 Ti — проверить цену
            • Лучшая доступная видеокарта: Nvidia GeForce RTX 2060 — проверить цену

            Как мы тестируем

            Узнайте больше о том, как мы тестируем видеокарты

            Каждая видеокарта, которую мы рассматриваем, тестируется на одном из наших тестовых стендов используя сочетание синтетических тестов и внутриигровых проверок. Мы используем единые спецификации в тестах, чтобы помочь нам проводить прямые сравнения между картами на основе данных, которые мы собираем. Мы также оцениваем тепловые характеристики, чтобы убедиться, что карты не перегреваются, а также энергопотребление.

            Nvidia GeForce RTX 4090

            Самая мощная графическая карта NVIDIA

            Доверенный счет

            Pros

            • Самая мощная видеокарта.
            • Невероятные 4K Gaming Performance
            • DLSS 3 предлагает вариант BOOST
            • DLSS 3.
            • DLSS 3
            • DLSS 3
            • DLSS 3
            • DLSS 3. высокая цена
            • Перебор для большинства игр, даже в 4K
            • Очень высокое энергопотребление

            Nvidia RTX 4090 была одной из первых видеокарт, выпущенных в рамках новой серии RTX 4000. Благодаря передовой архитектуре Lovelace компания Nvidia смогла поднять производительность до совершенно новых высот, а высококлассные функции, такие как DLSS и трассировка лучей, стали еще более эффективными.

            В наших игровых тестах мы обнаружили, что RTX 4090 способна играть практически в любую современную игру с разрешением 4K со скоростью 100 кадров в секунду и выше. Единственный случай, когда эта видеокарта не смогла этого сделать, был Cyberpunk 2077 с активированной трассировкой лучей. Но средний результат 44 кадра в секунду по-прежнему является впечатляющим достижением с RTX 309.0 не может достичь 30 кадров в секунду с теми же настройками.

            Nvidia RTX 4090 не для всех, с привлекательной ценой, высоким энергопотреблением и большим дизайном. Его производительность в 4K также избыточна, что делает RTX 3080 или новую RTX 4080 более выгодным вариантом для тех, у кого нет банковского хранилища, чтобы конкурировать со Скруджем Макдаком.

            Но если вам нужна самая мощная видеокарта, которую может предложить Nvidia, то, без сомнения, RTX 4090 — лучший вариант видеокарты.

            Рецензент: Райан Джонс
            Полный обзор: Обзор Nvidia RTX 4090

            Nvidia GeForce RTX 3080 Ti

            Лучшая карта для 4K Gaming

            Доверенный балл

            Pros

            • Отличная производительность в 4K
            • Ray Tracing Support
            • Future-Aprable Connectivity

            Cons

                9. насколько она дороже обычной RTX 3080

              На смену Nvidia RTX 3080 Ti пришла RTX 4080, которая, по утверждению Nvidia, в 2-4 раза быстрее. Но поскольку мы еще не сравнивали и не тестировали новый графический процессор, мы не можем рекомендовать его на данный момент.

              В ближайшем будущем 3080 Ti — это карта, которую мы можем порекомендовать для высококлассных игр в разрешении 4K — хотя, честно говоря, мы бы посоветовали подождать и посмотреть, как 4080 работает, прежде чем нажимать на курок.

              3080 Ti была и остается мощной видеокартой, демонстрирующей отличные скорости во всех наших тестах. Требовательные игры, в том числе Cyberpunk 2077, работали с максимальной графикой и включенной трассировкой лучей в разрешении 4K. Сетевые шутеры, такие как Call of Duty и Battlefield, никогда не опускались ниже 100 кадров в секунду даже при самых высоких настройках в нашем тесте, который включал 16 ГБ памяти DDR4 и Intel Core i9.-9900КФ.

              Единственным недостатком является то, что, исходя из нашего опыта, это абсолютная прожорливость, требующая первоклассного блока питания. Nvidia также не удалось оставить много места для разгона: версия Founders Edition, которую мы тестировали, обычно не работала или перегревалась даже при незначительном увеличении тактовой частоты.

              Рецензент: Аластер Стивенсон 
              Полный обзор: Обзор Nvidia RTX 3080

              Nvidia RTX 3060 Ti

              Лучший вариант среднего класса

              Доверенный балл

              Pros

              • Solid 1080p Ray Tracing. % дешевле, чем RTX 3070

              . Nvidia еще не представила свои карты RTX 4070 или RTX 4060, поэтому на данный момент RTX 3060 Ti остается нашим лучшим выбором видеокарты для тех, кому нужен графический процессор среднего уровня.

              Карта показала фантастическое соотношение цены и качества, предлагая скорость выше 60 кадров в секунду во всех играх, которые мы тестировали с графическими настройками, максимальными в 1080p. Сюда входит Control, который обычно используется в качестве основы для производительности трассировки лучей. С отключенной трассировкой лучей он также работал в разрешении 1440p, а ключевые игры, включая Borderlands 3 и Horizon, воспроизводились со скоростью более 60 кадров в секунду.

              В качестве последнего преимущества у него также намного меньшее энергопотребление, чем у RTX 3080 Ti, что позволяет ему работать с блоками питания меньшей мощности.

              На данный момент она все еще продается по цене около 400 фунтов стерлингов/400 долларов США, что делает ее картой среднего класса. Его ближайший конкурент, AMD Radeon RX 6600 XT, на данный момент немного дешевле, что делает его достойной альтернативой, если вы не привязаны к карте Nvidia. Но в наших тестах AMD не продемонстрировала такой высокой производительности.

              Рецензент: Аластер Стивенсон
              Полный обзор: Обзор Nvidia RTX 3060 Ti

              Nvidia RTX 2060

              Лучший доступный вариант

              Trusted Score

              Pros

              • Solid 1080p and 1440p performance
              • Future-proof with Turing
              • Decent value when compared to the 1070

              Cons

              • Ray tracing and DLSS still not widely supported

              Если у вас ограниченный бюджет, вы можете взглянуть на Nvidia RTX 2060. Несмотря на то, что последняя архитектура Nvidia Lovelace отстает на два поколения, карта Turing по-прежнему остается надежной рабочей лошадкой.

              Во время наших тестов RTX 2060 могла играть в менее требовательные игры, такие как Battlefield 5, с включенной трассировкой лучей с воспроизводимой частотой кадров в разрешении 1080p. Тем не менее, он изо всех сил пытался разогнаться до 40 кадров в секунду в требовательных одиночных играх, таких как Cyberpunk.

              Но если вы отключите трассировку лучей, его производительность будет стабильной для большинства игр в формате 1080p. Он будет запускать Fortnite, Destiny 2, The Division 2 и большинство других онлайн-игр без проблем со скоростью более 60 кадров в секунду. Это ключевая причина, по которой мы рекомендуем его как фантастический вариант для покупателей с очень ограниченным бюджетом, несмотря на его возраст.

              Рецензент: Аластер Стивенсон
              Полный обзор: Обзор Nvidia RTX 2060

              Мы также рассмотрели…

              Nvidia RTX 3070

              Производительность RTX 2080 Ti по гораздо более доступной цене

              Nvidia GeForce RTX 3080

              RTX 3080 — новейшая флагманская видеокарта от Nvidia. Вот как это работает

              Часто задаваемые вопросы

              Является ли Nvidia единственным производителем видеокарт?

              Нет, несмотря на то, что компания является одним из крупнейших производителей графических процессоров для настольных ПК, у нее есть прямые конкуренты в каждой категории и ценовой категории благодаря AMD и ее линейке карт Radeon. Intel также намерена в ближайшем будущем выйти на рынок графических карт со своей серией Xe для настольных ПК.

              Являются ли карты Nvidia лучшими?

              Карты Nvidia постоянно проходят хорошие тесты, когда мы их проверяем, и являются постоянной функцией в нашем лучшем руководстве по графическим процессорам, обеспечивающим стабильную игровую производительность. Однако нам еще предстоит рассмотреть его последние карты серии 4000.

              Сколько вы должны потратить на GPU?

              Это зависит от того, что вы хотите сделать. Если вы просто хотите играть в Fortnite или выполнять базовое редактирование в PhotoShop, вы можете потратить всего 250 фунтов стерлингов / 250 долларов на карту начального уровня, которая сделает эту работу. Для более ресурсоемких задач, таких как игры в разрешении 4K, лучше потратиться на карту среднего или высшего класса. Они, как правило, стоят от 500 фунтов стерлингов / 500 долларов США до более чем 2000 фунтов стерлингов / 2000 долларов США.

              Вам может понравиться…

              Тестовые данные Trusted Reviews

              В таблице ниже вы можете увидеть подробную разбивку тестовых данных, которые мы собрали, просматривая карточки в этом списке.

              Потребление мощности

              Пиковая температура

              3dmark Time Spy Extreme

              3dmark Port Royal

              Borderlands 3 Кадра (4K)

              Borderlands 3 Кадр. )

              Частота кадров Horizon Zero Dawn (4K)

              Частота кадров Horizon Zero Dawn (Quad HD)

              Частота кадров Horizon Zero Dawn (Full HD)

              Nvidia GeForce RTX 3080 Ti

              505,1 Вт

              82 °C

              8121

              12907

              67. 5 fps

              113.2

              143.3

              81 fps

              118 fps

              118 fps

              Nvidia RTX 3060 Ti

              200 W

              73 °C

              5529

              6817

              37.5 fps

              67.6

              94.66

              54 fps

              86 fps

              101 fps

              Nvidia RTX 2060

              66 °C

              Nvidia GeForce RTX 4090

              450 W

              Сравнение характеристик

              Вы можете увидеть все характеристики карт в таблице ниже.

              Рекомендованная цена Великобритании

              Рекомендованная цена США

              Рекомендованная цена ЕС

              Рекомендованная цена CA

              Производитель

              Размер (размеры)

              Дата выпуска

              Дата первого пересмотра

              Порты

              Энергопотребление

              Видеопамять

              Повышенная тактовая частота

              CUDAcores 90 Rays

              3 90?

              Nvidia GeForce RTX 3080 Ti

              £1049

              $1199

              Nvidia

              4. 4 x 11.2 x INCHES

              2021

              02/06/2021

              HDMI, DisplayPort x 3, 2 x 8-контактный

              505.1 W

              12 GB

              1.67 GHz

              10240

              Ampere

              Yes

              Nvidia RTX 3060 Ti

              £369

              $400

              €419

              CA$549

              Nvidia

              112 x x 242 MM

              12.01.2020

              HDMI 2.1, 3x Displayport 1.4a, 1x PCIe 8-PIN

              200 W

              8 ГБ

              1,67 ГГц

              4864

              4864

              . RTX 2060

              £ 329

              $ 349

              NVIDIA

              113 x 229 x 35 мм

              2021

              2x Hisplorpport, HDMI, DVI-D, USB-C

              2x Hisport, HDMI, DVI-D, USB-C

              2x. GB

              1680 GHz

              1920

              Turing

              Yes

              Nvidia GeForce RTX 4090

              £1679

              $1599

              Nvidia

              304 x 137 x 61 MM

              2022

              11 /10/2022

              HDMI, 3X Displayport

              450 W

              24 ГБ

              2,52 ГГц

              16384

              ADA Lovelace

              Да 9003

              Аластер Стивенсон

              Связаться через Твиттер

              Связаться через LinkinIn

              Бывший главный редактор

              Аластер отвечает за редакционную стратегию Trusted Reviews Limited и публикации на всех ее сайтах. Он имеет более чем десятилетний опыт работы журналистом в прессе B2C и B2B. Во время этого …

              Зачем доверять нашей журналистике?

              Основанная в 2004 году, Trusted Reviews существует для того, чтобы давать нашим читателям подробные, непредвзятые и независимые советы о том, что покупать.

              Сегодня у нас есть миллионы пользователей в месяц со всего мира, и мы оцениваем более 1000 продуктов в год.

              Редакционная независимость

              Редакционная независимость означает возможность вынести непредвзятый вердикт о продукте или компании, избегая конфликта интересов. Чтобы это было возможно, каждый член редакции следует четкому кодексу поведения.

              Профессиональное поведение

              Мы также ожидаем от наших журналистов соблюдения четких этических норм в своей работе. Наши сотрудники должны стремиться к честности и точности во всем, что они делают. Мы следуем своду правил редакторов IPSO, чтобы поддерживать эти стандарты.

              Обзор Nvidia RTX 4090 | PC Gamer

              Наш вердикт

              Возможно, RTX 4090 и не утонченная, но изящество DLSS 3 и Frame Generation, а также грубое графическое ворчание графического процессора с частотой 2,7 ГГц в совокупности делают игровую карту просто адской.

              Для
              • Отличная производительность от поколения к поколению
              • Генерация кадров DLSS — это волшебство
              • Сверхвысокие тактовые частоты
              Против
              • массивный
              • Цены для ультраэнтузиастов
              • Производительность без 4K ограничена
              • Требования к высокой мощности

              Почему вы можете доверять PC Gamer
              Наши эксперты-рецензенты часами тестируют и сравнивают продукты и услуги, чтобы вы могли выбрать лучшее для себя. Узнайте больше о том, как мы тестируем.

              В видеокарте Nvidia GeForce RTX 4090 нет ничего сложного. Это огромный кусок толкателя пикселей, и хотя к тому, что в противном случае могло бы выглядеть как передышка RTX 309, добавлены некоторые дополнительные кривые. 0 (откроется в новой вкладке), он по-прежнему имеет эстетику новой видеокарты.

              Похоже на какую-то полусатирическую пластиковую модель, созданную для того, чтобы напугать производителей графических процессоров из-за постоянно увеличивающегося размера их карт. Но это не модель и не луна, это авангард всего поколения графических процессоров RTX 40-й серии и наш первый опыт новой архитектуры Ады Лавлейс.

              С одной стороны, это адское знакомство с экстремальной производительностью, которую Ада может показать на длинном поводке, а с другой — слегка глухой релиз в свете глобального экономического кризиса, который делает запуск видеокарта для жесткого меньшинства геймеров чувствует себя немного не в своей тарелке.

              Это огромный графический процессор, в котором на 170% больше транзисторов, чем даже в невероятно мощном чипе GA102, на котором работала RTX 3090 Ti (откроется в новой вкладке). И, по большей части, это заставляет предыдущую флагманскую карту поколения Ampere выглядеть далеко не в темпе. И это еще до того, как вы столкнетесь с равноправным сочетанием величия и черной магии, которое лежит в основе новой версии DLSS 3.0, разработанной исключительно для Ады.

              Но с учетом того, что следующий набор карт серии RTX 40 появится не раньше ноября, и даже тогда они будут графическими процессорами по цене ультра-энтузиастов, маркер, установленный для этого поколения, указывает на экстремальную производительность, но по более высокой цене. Вы можете поспорить с RTX 409.0 по цене 1599 долларов (1699 фунтов стерлингов), что лишь немного больше, чем RTX 3090 — по крайней мере, в долларовом выражении — и примерно на 400 долларов дешевле, чем RTX 3090 Ti.

              Хотя нужно сказать, что RTX 3090 Ti была выпущена в другое время, и ее пандемическая цена соответствовала тогдашней нехватке кремния для ПК и отражала мир, в котором майнинг на GPU все еще был актуален. К счастью, по мере того, как 2022 год подходит к концу, Эфириум, наконец, перешел на доказательство доли (открывается в новой вкладке), и дни алгоритмической работы графических карт для питания его блокчейна прошли.

              Теперь мы вернулись к геймерам и создателям контента, которые выбирают графические процессоры для своих систем, так что же им предложит RTX 4090?

              Архитектура и характеристики Nvidia RTX 4090

              (Изображение предоставлено Nvidia)

              Что внутри RTX 4090?

              RTX 4090 поставляется с первым графическим процессором Ada Lovelace этого поколения: AD102. Но стоит отметить, что чип, используемый в этой флагманской карте, не является полноценным, несмотря на его и без того чудовищные характеристики.

              Тем не менее, в его основе лежат 16 384 ядра CUDA, распределенные по 128 потоковым мультипроцессорам (SM). Это на 52% больше, чем у RTX 309.0 Ti GA102 GPU, который сам по себе был полноценным ядром Ampere.

              Полный чип AD102 включает 18 432 ядра CUDA и 144 SM. Это также означает, что вы смотрите на 144 ядра RT третьего поколения и 576 ядер Tensor четвертого поколения. Что, я думаю, означает, что есть много места для RTX 4090 Ti или даже для Titan, если Nvidia пожелает.

              Память не сильно изменилась, опять же с 24 ГБ памяти GDDR6X, работающей на скорости 21 Гбит/с, что обеспечивает пропускную способность памяти 1008 ГБ/с.

              Изображение 1 из 3

              (Изображение предоставлено Nvidia) (Изображение предоставлено Nvidia) (Изображение предоставлено Nvidia)

              Swipe to scroll horizontally

              L | Кэш L2
              Header Cell — Column 0 GeForce RTX 4090 GeForce RTX 3090 Ti
              Lithography TSMC 4N Samsung 8N
              CUDA cores 16,432 10,752
              SMs 128 84
              RT Cores 128 84
              Tensor Cores 512 336
              ROPs 176 112
              Boost clock 2,520MHz 1,860MHz
              Memory 24GB GDDR6X 24GB GDDR6X
              Memory speed 21 Гбит/с 21 Гбит/с
              Пропускная способность памяти 1008 ГБ/с 1008 ГБ/с
              16 384 КБ | 73 728 КБ 10 752 КБ | 6,144KB
              Transistors 76. 3 billion 28.3 billion
              Die Size 608.5mm² 628.5mm²
              TGP 450W 450W
              Price $1,599 | 1699 фунтов стерлингов 1999 долларов США | 1999 фунтов стерлингов

              Почти на 1 ГГц быстрее, чем RTX 3090 предыдущего поколения.

              Что касается необработанных шейдеров, то в архитектуре Ampere тоже не так уж далеко продвинулись. Каждый SM по-прежнему использует те же 64 выделенных блока FP32, но с вторичным потоком из 64 блоков, который при необходимости можно разделить между вычислениями с плавающей запятой и целыми числами, как это было введено в Ampere.

              Вы можете увидеть, насколько похожи две архитектуры с точки зрения растеризации, если посмотрите на относительную разницу в производительности между RTX 3090 и RTX 4090.  

              Если игнорировать трассировку лучей и масштабирование, соответствующий прирост производительности будет лишь немного выше. чем можно было бы ожидать от дополнительного количества ядер CUDA, встроенных в GPU AD102. «Немного выше», чем соизмеримое увеличение производительности, тем не менее, показывает, что на этом уровне есть и различий.

              Частично это связано с новым производственным процессом 4N, который Nvidia использует для своих графических процессоров Ada Lovelace. Говорят, что по сравнению с процессом 8N Samsung Ampere, процесс 4N, созданный TSMC, обеспечивает либо вдвое большую производительность при той же мощности, либо половину мощности при той же производительности.

              Это означает, что Nvidia может быть сверхагрессивной с точки зрения тактовой частоты: RTX 4090 указана с тактовой частотой 2520 МГц. На самом деле мы видели, что наша карта Founders Edition имеет среднюю частоту 2716 МГц в нашем тестировании, что делает ее почти на полный 1 ГГц быстрее, чем RTX 309. 0 предыдущего поколения.

              И из-за этого сокращения процесса инженеры Nvidia, работающие с TSMC, втиснули в ядро ​​AD102 поразительные 76,3 миллиарда транзисторов. Учитывая, что графический процессор Ada площадью 608,5 мм² содержит гораздо больше транзисторов, чем 28,3 миллиарда транзисторов кремния GA102, может показаться удивительным, что он намного меньше чипа Ampere площадью 628,4 мм².

              (Изображение предоставлено: Будущее)

              Тот факт, что Nvidia может продолжать вставлять это постоянно растущее количество транзисторов в монолитный чип и при этом продолжать уменьшать его фактический размер кристалла, является свидетельством мощности передовых технологических узлов в этой сфере. . Для справки: чип TU102 RTX 2080 Ti имел площадь 754 мм² и вмещал всего 18,6 миллиардов 12-нанометровых транзисторов.

              Это не означает, что монолитный GPU может работать вечно без контроля. Конкурент GPU, AMD, обещает перейти на чиплеты для графических вычислений для своих новых чипов RDNA 3, которые будут выпущены в ноябре. Учитывая, что сложность графического процессора AD102 уступает только 80 миллиардам транзисторов усовершенствованного кремния Nvidia Hopper площадью 814 мм², его производство наверняка будет дорогим чипом. Однако меньшие по размеру вычислительные чиплеты должны снизить затраты и повысить доходность.

              На данный момент монолитный подход грубой силы все еще окупается для Nvidia.

              Что еще вы делаете, когда вам нужно больше скорости, и вы уже упаковали как можно больше современных транзисторов? Вы втыкаете в пакет еще немного кэш-памяти. Это то, что AMD добилась с большим успехом со своим Infinity Cache, и, хотя Nvidia не обязательно использует какой-то причудливый новый фирменный подход, она добавляет огромный кусок кэша L2 в ядро ​​​​Ada.

              Предыдущее поколение, GA102, содержало 6144 КБ общего кэша L2, который располагался в середине его SM, и Ada увеличивает его в 16 раз, чтобы создать пул из 98 304 КБ L2 для AD102 SM. Для версии чипа RTX 4090 этот показатель снижается до 73 728 КБ, но это все еще много кеша. Объем L1 не изменился для каждого SM, но поскольку теперь внутри чипа в целом намного больше SM, это также означает, что объем кэш-памяти L1 больше, чем у Ampere.

              Но в наши дни растеризация — это еще не все для графического процессора. Как бы вы ни относились к этому, когда Тьюринг впервые представил трассировку лучей в реальном времени в играх, теперь она стала почти стандартной частью компьютерных игр. То же самое можно сказать и об апскейлинге, поэтому то, как архитектура подходит к этим двум дополнительным столпам компьютерных игр, жизненно важно для понимания дизайна в целом.

              И теперь все три производителя видеокарт (как странно сейчас говорить о триумвирате…) сосредоточились на производительности трассировки лучей, а также на тонкостях технологий апскейлинга, это стало совершенно новым театром войны между ними.

              (Изображение предоставлено Future)

              Именно здесь произошли реальные изменения в потоковом мультипроцессоре Ada. Растеризованные компоненты могут быть очень похожими, но ядро ​​RT третьего поколения претерпело большие изменения. Предыдущие два поколения RT Core содержали пару выделенных модулей — Box Intersection Engine и Triangle Intersection Engine — которые вытягивали большую часть рабочей нагрузки RT из остальной части SM при расчете алгоритма иерархии ограничивающих томов (BVH) в основе. трассировки лучей.

              Ада представляет еще два отдельных модуля, чтобы разгрузить еще больше работы от SM: механизм микрокарты непрозрачности и механизм микросетки Displaced. Первый значительно ускоряет расчеты при работе с прозрачностью в сцене, а второй предназначен для разбивки геометрически сложных объектов, чтобы сократить время, необходимое для выполнения всего расчета BVH.

              К этому добавляется то, что Nvidia называет «такой же большой инновацией для графических процессоров, как неупорядоченное выполнение было для процессоров в 19-м веке».90-х годов». Функция переупорядочивания выполнения шейдеров (SER) была создана для переключения рабочих нагрузок затенения, что позволяет чипам Ada значительно повысить эффективность графического конвейера, когда речь идет о трассировке лучей, путем перепланирования задач на лету.  

              Intel работает над этим. на аналогичной функции для своих графических процессоров Alchemist (открывается в новой вкладке), блоке сортировки потоков, чтобы помочь с расходящимися лучами в сценах с трассировкой лучей.И его установка, как сообщается, не требует участия разработчика.На данный момент Nvidia требуется специальный API для интегрировать SER в код игры разработчика, но Nvidia заявляет, что работает с Microsoft и другими над внедрением этой функции в стандартные графические API, такие как DirectX 12 и Vulkan.

              (Изображение предоставлено Nvidia)

              Это вуду, это черная магия, это темные искусства, и это довольно великолепно.

              Наконец, мы подошли к DLSS 3 с его козырем в рукаве: генерацией кадров. Да, DLSS 3 теперь будет не просто повышать масштаб, он будет сам создавать целые игровые кадры. Не обязательно с нуля, а используя возможности искусственного интеллекта и глубокого обучения, чтобы сделать наилучшее предположение о том, как будет выглядеть следующий кадр, если вы действительно собираетесь его визуализировать. Затем он вставляет этот сгенерированный AI кадр перед следующим действительно визуализированным кадром.

              Это вуду, это черная магия, это темные искусства, и это довольно великолепно. Он использует усовершенствованные аппаратные блоки внутри тензорных ядер четвертого поколения, называемые Optical Flow Units, для выполнения всех этих расчетов в полете. Затем он использует преимущества нейронной сети для извлечения всех данных из предыдущих кадров, векторов движения в сцене и модуля оптического потока вместе, чтобы помочь создать совершенно новый кадр, который также может включать трассировку лучей и эффекты постобработки.

              (Изображение предоставлено Nvidia)

              Работая в сочетании с апскейлингом DLSS (теперь просто называемым DLSS Super Resolution), Nvidia заявляет, что при определенных обстоятельствах ИИ будет генерировать три четверти начального кадра посредством апскейлинга, а затем весь второй кадр с использованием генерации кадров. В целом, по его оценкам, ИИ создает семь восьмых всех отображаемых пикселей.

              И это просто поражает мой маленький геймерский разум.

              Производительность Nvidia RTX 4090

              (Изображение предоставлено Future)

              Как работает RTX 4090?

              Смотри, это быстро, хорошо. Со всем включенным, с DLSS 3 и генерацией кадров, работающими своим волшебством, RTX 4090 монументально быстрее, чем RTX 3090, которая была до нее. Прямая оценка 3DMark Time Spy Extreme вдвое выше, чем у большого ядра Ampere, и до того, как в него войдут трассировка лучей или DLSS, необработанный кремний также предлагает вдвое большую частоту кадров 4K в Cyberpunk 2077.

              Но если вы не качаете монитор 4K, вам действительно следует дважды подумать, прежде чем тратить 1600 долларов на новый графический процессор, не обновляя при этом свой экран. Это потому, что RTX 4090 настолько быстр, когда дело доходит до чистого растеризации, что мы возвращаемся к старым временам, когда процессор был привязан к огромному количеству игр.

              Синтетическая производительность

              Изображение 1 из 3

              (Изображение предоставлено: Future)(Изображение предоставлено: Future)(Изображение предоставлено: Future)

              С включенной трассировкой лучей вы можете наблюдать на 91% более высокую частоту кадров в 4K.

              Таким образом, прирост производительности по сравнению с предыдущим поколением зачастую значительно ниже, если посмотреть на относительную производительность в играх 1080p или даже 1440p. В Far Cry 6 при более низких разрешениях RTX 4090 всего на 3% быстрее, чем RTX 3090, а в разрешении 1080p и 4K дельта составляет всего семь кадров в секунду.

              Фактически, при разрешении 1080p и 1440p RX 6950 XT является более быстрой игровой картой.

              Это немного необычно с точки зрения того, насколько ограничена Far Cry 6, но она по-прежнему отражает более широкую тенденцию сравнительной игровой производительности при более низких разрешениях. По сути, если вы стремитесь добиться 360 кадров в секунду в своих любимых играх на игровом мониторе с частотой 360 Гц и разрешением 1080p, то вы произносите не ту идиому.

              Игровая производительность 1440p

              Изображение 1 из 8

              (Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее) (Изображение предоставлено: Future) (Изображение предоставлено: Future)

              При разрешении 4K прирост производительности от поколения к поколению довольно впечатляющий. Игнорируя ограниченную игровую производительность Far Cry 6, вы получаете как минимум на 61% более высокую производительность по сравнению с RTX 3090. Это хорошо согласуется с увеличением выделенного оборудования для растеризации, повышенной тактовой частотой и большим объемом кэш-памяти. Добавьте несколько тестов с включенной трассировкой лучей, и вы увидите 9На 1 % выше частота кадров при разрешении 4K.

              Производительность в играх 4K

              Изображение 1 из 8

              (Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее) (Изображение предоставлено Future) (Изображение предоставлено Future)

              Но растеризация — это только часть современных игр; масштабирование теперь является абсолютно неотъемлемой частью производительности графического процессора. Мы используем наше сравнительное тестирование, чтобы выявить грубые архитектурные различия между кристаллами графических карт, и поэтому работаем без включения масштабирования. В противном случае почти невозможно получить сравнение производительности яблок и яблок.

              Однако важно понять, что может дать масштабирование, особенно с чем-то, что может изменить правила игры, как DLSS 3 с генерацией кадров. А с такой графически интенсивной игрой, как Cyberpunk 2077, в которую можно играть с настройками 4K RT Ultra и частотой кадров 147 кадров в секунду, легко увидеть потенциал, который она предлагает.

              Вы видите прирост производительности по сравнению с RTX 3090 Ti, когда эта карта работает в самом режиме Cyberpunk 2077 DLSS 4K Performance, примерно на 145%. Когда просто смотришь на RTX 4090 сам по себе, по сравнению с его производительностью без DLSS, мы наблюдаем прирост производительности на 250%. Все это ниже для F1 22, где есть определенное ограничение ЦП — даже с нашим Core i9 12900K (открывается в новой вкладке) — но вы все равно увидите увеличение производительности до 51% по сравнению с RTX 3090 Ti с включенным DLSS.

              Производительность DLSS

              Изображение 1 из 5

              (Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)(Изображение предоставлено: Будущее)

              Опять же, если вы просто возьмете RTX 4090, работающем без апскейлинга, по сравнению с включенным в 4K, вы увидите увеличение частоты кадров на 150%.

              В MS Flight Sim, который мы также тестировали с ранним доступом, поддерживающим DLSS 3, эта игра, невероятно привязанная к процессору, невероятно хорошо реагирует на генерацию кадров. На самом деле, из-за того, что он настолько ограничен ЦП, нет никакой реальной разницы между работой с включенным DLSS или без него, если у вас не запущена генерация кадров. Но когда вы работаете с этими искусственными рамами, вы увидите легкое удвоение стандартной производительности, на 113% выше в нашем тестировании.

              Еще одна интересная вещь, на которую стоит обратить внимание, это то, что Nvidia отделила генерацию кадров от сверхвысокого разрешения DLSS (по сути, стандартного DLSS), и это потому, что интерполяция кадров действительно увеличивает задержку.

              Однако просто включение DLSS само по себе по-прежнему радикально снижает задержку, и поэтому с минимальным увеличением, которое дает добавление Frame Generation, вы по-прежнему лучше, чем при работе с собственным разрешением. Это также связано с тем, что Nvidia Reflex стала неотъемлемой частью DLSS 3, но, тем не менее, если вы ищете самую низкую задержку для соревновательных игр, то отсутствие генерации кадров будет идеальным.

              Исходное 4K | Производительность DLSS | Производительность DLSS с генерацией кадров (Изображение предоставлено CDPR)

              Но для одиночной игры генерация кадров просто потрясающая. Для меня это выглядит лучше, чем более размытая сцена с низкой частотой кадров, и убирает иногда искаженный вид прямого изображения DLSS Super Resolution.

              Лично я буду включать генерацию кадров при любой возможности.

              Что, по общему признанию, будет не так часто для начала. Разработчикам потребуется время, чтобы освоить новую магию апскейлинга, однако Nvidia заявляет, что ее легко реализовать. Он также ограничен графическими процессорами Ады Лавлейс, что означает RTX 409 за 1600 долларов.0 при запуске, а затем RTX 4080 за 1200 долларов и RTX 4080 за 900 долларов в ноябре.

              Другими словами, он не будет доступен подавляющему большинству геймеров до тех пор, пока Nvidia не решит выпустить действительно доступные графические процессоры Ada. Те, которые, возможно, больше выиграют от таких улучшений производительности.

              Электропитание и тепловая система

              Изображение 1 из 3

              (Изображение предоставлено: Future)(Изображение предоставлено: Future)(Изображение предоставлено: Future)

              Испытательная установка PCG

              CPU: Intel Core I9 12900K
              Материнская плата: Asus Rog Z690 Maximus Hero
              Cooler: Corsair H200I RGB
              RAM: 32GB G.SKILL RGB
              RAM: 32GB G.SKILL RGB
              RAM: 32GB G.SKILL RGB
              DAM: 32GB G.SKILL RGB
              . , 4TB Sabrent Rocket 4Q
              PSU: Seasonic Prime TX 1600W
              OS: Windows 11 22H3
              CHASSIS: DIMASTECH MINI V2
              MOUNITION: DATHTRUM ES07 и PEALTH303. Ну, он почти достиг 500 Вт при работе на стандартных скоростях. Но именно так и поступают современные графические процессоры — просто посмотрите, сколько энергии требует в остальном эффективная архитектура RDNA 2 при использовании в RX 69. 50 XT (открывается в новой вкладке) — и определенно стоит отметить, что это примерно тот же уровень, что и у предыдущей RTX 3090 Ti. Учитывая увеличение производительности, незначительное увеличение потребляемой мощности говорит об эффективности процесса 4N.

              Увеличение частоты кадров также означает, что с точки зрения производительности на ватт RTX 4090 является самым эффективным современным графическим процессором на рынке. Странно говорить о карте, которая, по слухам, была больше похожа на вариант TGP мощностью 600 Вт.

              Анализ Nvidia RTX 4090

              (Изображение предоставлено в будущем)

              Как выглядит RTX 4090?

              Действительно нельзя отрицать, что RTX 4090, авангард грядущего парка графических процессоров Ады Лавлейс, является фантастически мощной видеокартой. Конечно, он имеет смехотворные размеры, что помогает как отдаче энергии, так и тепловым показателям. Но это также непомерно дорогая карта для нашего первого знакомства с графическими процессорами GeForce следующего поколения.

              Конечно, это всего на 100 долларов дороже, чем RTX 309.0 была на старте и на 400 долларов меньше, чем RTX 3090 Ti, что может даже сделать ее лучшим графическим процессором серии RTX 40, учитывая количество предлагаемого графического кремния. Но предыдущие поколения дали остальным из нас, геймерам, доступ к новейшей линейке карт, даже если они позже представили графические процессоры для ультраэнтузиастов и для особых людей.

              Во времена глобальных экономических трудностей не стоит делать вашу новую архитектуру доступной только для «элиты» компьютерных игр.

              Но вся анонсированная серия RTX 40 состоит из карт для ультра-энтузиастов, причем самым дешевым из них является графический процессор третьего уровня — совершенно отдельный графический процессор AD104, а не просто урезанные AD102 или AD103, поставляемые с номинальная цена 899 долларов. Хотя версия RTX 4080 на 12 ГБ не получит версию Founders Edition, я буду удивлен, если при запуске мы не увидим версии стоимостью более 1000 долларов от AIB.

              Все это означает, что независимо от того, насколько я впечатлен техническими достижениями, заложенными в архитектуре Ады Лавлейс, — от магии DLSS 3 и генерации кадров до невероятного повышения тактовой частоты, которое обеспечивает технологический узел TSMC 4N, и огромного веса все эти дополнительные транзисторы — они полностью ограничены теми, у кого непомерно большие банковские счета.

              Во времена глобальных экономических трудностей не стоит делать вашу новую архитектуру доступной только для «элиты» компьютерных игр.

              (Изображение предоставлено в будущем)

              Nvidia будет утверждать, что в текущем наборе карт серии RTX 30 достаточно кремния для обслуживания более низких классов, и что в конечном итоге появятся более доступные графические процессоры Ada, чтобы заполнить RTX 40. -ряд стека в новом году. Но это не меняет перспективы этого запуска ни сегодня, ни завтра, ни через пару месяцев.

              Что заставляет меня задаться вопросом, почему именно это происходит. Почему Nvidia решила, что сейчас самое подходящее время изменить то, как она традиционно запускала новое поколение графических процессоров, и с самого начала не давала геймерам ПК ничего, кроме недоступной карты?

              Уловки Ады не кажутся столь же мощными дальше по стеку? Или это просто потому, что в обращении все еще так много карт RTX 3080 и ниже?

              У меня есть пока необоснованные опасения, что RTX 4080 ни в каком виде не окажет такого влияния, как RTX 4090, поэтому Nvidia решила не лидировать с этими картами. Глядя на технический документ Ada (предупреждение в формате PDF) (открывается в новой вкладке), особенно на сравнение карт RTX 4080 16 ГБ и 12 ГБ и их предшественников RTX 3080 Ti и RTX 3080 12 ГБ, можно увидеть улучшение производительности в подавляющем большинстве современных карт. Компьютерные игры могут быть довольно не впечатляющими.

              Оба графических процессора Ada имеют меньше ядер CUDA и гораздо более низкие значения пропускной способности памяти по сравнению с картами предыдущего поколения. Похоже, что они почти полностью полагаются на огромный скачок тактовой частоты, чтобы увеличить количество TFLOPS, и магию DLSS 3, чтобы придать дополнительный блеск своим тестам без RT.

              В каком-то смысле может показаться грубым говорить о страхах перед окружающими картами, составом их графического процессора и порядком выпуска в обзоре RTX 4090. Я должен говорить о кремнии передо мной, а не о том, где я Я хочу, чтобы она существовала в идеальном мире, потому что это по-прежнему очень впечатляющая карта как с точки зрения поколения на поколение, так и с точки зрения архитектуры Ады.

              (Изображение предоставлено Future)

              В начале обзора я сказал, что в RTX 409 нет ничего тонкого.0, но там — это , уровень мастерства здесь достоин аплодисментов. Усовершенствования ядра RT ведут нас еще дальше по пути к уменьшению популярности при включении технологии блестящего освещения, а тензорные ядра дают нам возможность создавать целые игровые кадры без рендеринга.

              Серьезно, DLSS с генерацией кадров просто потрясающий.

              Я уверен, что будут странные реализации, когда разработчики справятся (или не справятся) с включением мистических генеративных техник в свои игры, где странные визуальные артефакты портят внешний вид и создают собственные мемы, но из того, что я испытал до сих пор, это выглядит великолепно. На самом деле лучше, чем нативное 4K.

              И хотя цена в 1600 долларов может быть высокой, стоит отметить, что большие расходы на видеокарты нового поколения, вероятно, лучше всего делать в начале их срока службы. Я имею в виду, подумайте о людях, которые купили RTX 3090 Ti за последние семь месяцев. За 2000 долларов. Они будут чувствовать себя более чем плохо прямо сейчас, глядя на их переоцененный, прожорливый графический процессор, который едва способен показать половину игровой производительности этой более дешевой, более новой карты.

              Это похоже на страдания владельцев Radeon VII после выхода RX 5700 XT. Только дороже.

              Вердикт Nvidia RTX 4090

              (Изображение предоставлено в будущем)

              Стоит ли покупать RTX 4090?

              RTX 4090 — это все, что вы хотели бы получить от ультрасовременной видеокарты. По сравнению с ней предыдущая топовая карта последнего поколения выглядит слабой, она предлагает геймерам невиданные новые технологии и почти оправдывает свою стоимость огромным весом кремния и полированного алюминия, использованных в ее конструкции.

              Сейчас нет другого графического процессора, который мог бы приблизиться к нему.

              Это воплощение графического процессора класса Titan; вся необработанная мощность и топовые цены.

              Что было бы хорошо, если бы он был запущен на фоне гораздо более доступного введения в новую архитектуру Ады Лавлейс. Но это то, что мы вряд ли увидим до рассвета 2023 года. Линейка Ada 2022 года начинается с 899 долларов, и это слишком дорого для большинства геймеров на ПК.

              Нельзя отрицать, что это ультра-нишевая карта для ультра-энтузиастов, и это почти делает RTX 4090 чуть больше, чем ориентир для большинства из нас, ПК-геймеров. Затем нам остается считать дни, пока Ада не спустится в царство ценообразования нас, простых смертных.

              Однако сама по себе RTX 4090 является отличной видеокартой и удовлетворит потребности в производительности любого человека, который когда-либо мог позволить себе потратить 1600 долларов на новый графический процессор. Это могут быть невероятно состоятельные геймеры или создатели контента, не желающие полностью использовать карты Quadro. И он будет заслуженно продаваться, потому что сейчас нет другого графического процессора, который мог бы приблизиться к нему.

              NVIDIA RTX 4090: Сравнение цен

              21 Отзывы о клиентах Amazon (Opens in New Tab)

              ☆☆☆☆☆

              (открывается в новой вкладке)

              (открывается в новой вкладке) открывается в новой вкладке)

              Просмотр (открывается в новой вкладке)

              (открывается в новой вкладке)

              (открывается в новой вкладке)

              2498,76 фунтов стерлингов

              (открывается в новой вкладке)

              6 (2390,88 фунтов стерлингов 90) в новой вкладке)

              Вид (открывается в новой вкладке)

              Цена снижена

              на базе

              Прочтите нашу политику обзора

              Nvidia RTX 4090

              RTX 4090 может быть и не утонченной, но утонченность DLSS 3 и Frame Generation, а также необработанная графическая производительность графического процессора с частотой 2,7 ГГц объединяются, чтобы сделать игровую карту адской.

Читайте также: