Nvidia видеокарты по мощности: Сравнение видеокарт GeForce RTX и GTX

Содержание

RTX 4090 и RTX 4080 » Community

NVIDIA представила линейку GeForce RTX 40, которая пока включает в себя только RTX 4090 и два варианта RTX 4080. Новинки построены на базе архитектуры Ada Lovelace и выполнены по 4-нм техпроцессу от TSMC. По словам NVIDIA, видеокарты обеспечивают огромный прирост производительности по сравнению с RTX 30. В частности, производительность при обработке шейдеров выросла в 2 раза, в задачах с применением RT-ядер — в 2,8 раза, да и энергоэффективность новинок улучшилась почти в 2 раза.

На старте поколения NVIDIA делает акцент на категории high-end, поэтому пока что представлены только видеокарты RTX 4090 и RTX 4080. В будущем, конечно, появятся RTX 4070, RTX 4060 и другие варианты, но сейчас основное внимание уделяется демонстрации возможностей архитектуры Ada Lovelace. 

Итак, основные технические характеристики RTX 4090 и RTX 4080:

RTX 4090RTX 4080 (16 ГБ)RTX 4080 (12 ГБ)
Количество ядер CUDA1638497287680
Количество шейдерных ядер1287660
Частота GPU (в состоянии Boost)2520 МГц2505 МГц2640 МГц
Количество памяти (тип)24 ГБ (GDDR6X)16 ГБ (GDDR6X)12 ГБ (GDDR6X)
Скорость шины384 бит256 бит192 бит
Пропускная способность памяти
1008 ГБ/с736 ГБ/с504 ГБ/с
Потребляемая мощность450 Вт340 Вт285 Вт
Цена (Founders Edition)$1499$1199$899

NVIDIA отмечает, что RTX 4080 с 12 ГБ памяти должна стать идеальным вариантом для большинства геймеров, поскольку предлагает всё самое лучшее, что есть в новейшей архитектуре Ada Lovelace. Эффективная пропускная способность составляет чуть больше половины от того, что вы можете получить с RTX 4090, но для подавляющего большинства геймеров этого будет более чем достаточно.

Архитектура Lovelace: высокая производительность и потребление

Ada Lovelace — это название новейшей графической архитектуры NVIDIA, которая используется в видеокартах серии GeForce RTX 40. Эта архитектура обеспечивает значительный прирост производительности по сравнению с Ampere. Компания заявляет, что новая линейка GPU обеспечивает до 83 TFLOPS вычислительной мощности для компьютерных игр — вдвое больше, чем карты RTX 30. 

Производительность RT-ядер, согласно заявлениям NVIDIA, составляет 191 TFLOPS, что в 2,8 раза больше, чем у предшественника. Также RT-ядра третьего поколения призваны обеспечить реалистичные эффекты освещения.

DLSS 3 — новая версия технологии суперсемплинга от NVIDIA, которая стала ещё лучше за счёт использования новой «нейронной сети для повышения частоты кадров при сохранении качества изображения». Инженерам также удалось обойти ограничения ЦП, благодаря чему графический процессор самостоятельно выводить кадры, созданные с помощью DLSS Frame Generation.

И, наконец, добавлена аппаратная поддержка кодировщика AV1. Эта новость явно порадует создателей контента, так как время на кодирование видеороликов в AV1 заметно снизится.

Оптимизация современных видеокарт Nvidia на примере GeForce RTX 2080 и 2080 Super — Железо на DTF

Минус 30% энергопотребления с 5% ростом производительности, а также небольшой опрос в конце материала

13 672
просмотров

В мае 2016 Nvidia представила публике GTX 1000 серию видео ускорителей с одним из самых высоких показателей производительности в расчете на энергопотребление. Произошло это в том числе благодаря использованию новой системы регулирования частоты/напряжения — Curve — кривая частот-напряжений, или в простонародье — «курва». И начиная с 1000 серии у пользователя появилась в распоряжении гибкая система настройки видеокарты относительно возможности ее элементной базы и удачливости кремния в кристаллах графического процессора и памяти.

В данном материале я поведаю читателю, что это за «курва» такая? Как она позволяет гибко настраивать работу видеокарты под различные условия ее эксплуатации? Каким образом происходит процесс настройки с различными подводными камнями? И конечно же какой результат от всего этого пользователь может получить?

Оглавление

  • Подопытные
  • Понимание основ
  • Настройка частоты/напряжения чипа
  • Настройка памяти
  • Тестирование
  • Настройка системы охлаждения
  • Опрос

Подопытные: железо и программное обеспечение

В качестве подопытных я буду использовать видеокарты 8GB GeForce RTX 2080 Super от Asus в исполнении Strix и 8GB GeForce RTX 2080 Palit JetStream — оба ускорителя с качественными элементной базой и СО, но первый на чипе из более отборной серии.

ПО для настройки, проверки и тестирования:

  • MSI Afterburner — основная программа, через которую буду осуществлять все манипуляции. Мощный комбайн, позволяющий управлять работой видеокарты, через RTSS выводить в оверлей различную информацию, делать скриншоты, записывать видео, через Kombustor запускать различные тесты для проверки производительности и стабильности и многое другое. Аналог EVGA Precision X обладает меньшим функционалом, потому нравится мне много меньше.
  • GPU-Z — небольшое ПО, по желанию запускающееся без установки и позволяющее просматривать информацию о видеокарте, снимать информацию с ее датчиков, и читать параметры bios.
  • 3DMark — тесты производительности и стресс тесты видео компонента ПК и мобильных устройств.
  • Unigine Superposition — еще одно средство для тестирования графической производительности в нескольких режимах качества.
  • Metro Exodus Enchanced Edition — обновленная версия игры, бенчмарк которой позволяет комплексно задействовать современный GPU от Nvidia: блоки растеризации, трассировки и тензорные ядра.

Используйте для проверки другие программы и игры, которыми чаще всего нагружаете свой видео адаптер, и в которых хотите исследовать изменением производительности.

Понимание основ

Кроме очевидных вещей в виде остальных компонентов ПК и элементной базы самого видеоускорителя его производительность в основном зависит от предела энергопотребления и качества кристаллов GPU и памяти. Чем более дорогого модельного класса видеокарта (Dual < Gaming Pro < JetStream < GameRock на примере RTX 2000 от Palit), тем более отборные чипы в нее попадают и тем более дорогие компоненты подсистемы питания и системы охлаждения у нее оказываются. От всего этого напрямую зависит предел энергопотребления и curve — тот самый график частот/напряжений, который и поможет нам полноценно настроить видеокарту (открывается сочетанием Ctrl+F в активном окне Afterburner).

MSI Afterburner с открытым Curve Editor

При работе именно такой принцип устройства современных ускорителей Nvidia (как и AMD с RX 5000 серии) помогает им при неизменном пределе энергопотребления и переменной нагрузке динамически управлять напряжением, поступающим на GPU. Регулируя напряжение, изменяется и привязанную к нему частоту, достигая в любом момент времени максимальной для чипа производительности. Потому что на замену 2 режимам частоты/напряжения пришли 40 значений у GTX 1000 серии и 64 у GTX 1600 и RTX 2000/3000 серий в диапазоне от 700 до 1093 мВ.

Чем более дорогой адаптер, тем выше по частотам его curve настроена из коробки. Например у RTX 2080 в исполнении Dual или JetStream напряжению 1000 мВ соответствует 1815 МГц частота, у Gaming Pro это будет уже 1845 МГц, у Super JetStream — 1965 МГц, у GameRock Premium — 1980 МГц. Но корреляция качества кристалла с ценой модели не абсолютна. В моей практике попадались очень удачные чипы в среднеценовых моделях, как и наоборот — чипы в топовых моделях, работающие практически на пределе своего частотного запаса. Ведь при отборе главное, чтобы чип проходил все тесты при зашитой производителем curve. Плюс нельзя забывать, что в режиме из коробки современные видеокарты для настольного ПК функционируют в диапазоне напряжений 900-1050 мВ, что однозначно не свидетельствует о потенциале при меньших напряжениях, где GPU зачастую показывает большую эффективность частоты/напряжения. По итогу всего моего опыта могу заключить, что чаще всего это диапазон 750-850 мВ.

У видеопамяти к сожалению программно менять можно лишь частоту. Напряжение меняется самостоятельно в зависимости от параметров, зашитых в bios карты. Конечно за счет изменения программы микроконтроллера, управляющего питанием памяти, или набора резисторов можно изменить поступающее напряжение, но даже после недавнего слива Nvidia не все разбирающиеся специалисты сервисных центров успешно таким балуются.

Относительно разгона или даунвольта видеокарт на просторах интернета чаще рекомендуют для ускорения процесса пользоваться стандартным ползунком частоты чипа или устанавливать единую ровную планку частоты в Сurve Editor. Пользоваться единым регулятором частоты я не рекомендую, если стоит задача не просто разогнать видеоадаптер, но комплексно его настроить в том числе с уменьшение энергопотребления и нагрева с изменениями в ту или иную сторону его производительности. Ровную же планку частоты я не настраиваю, потому что в таком случае мы отбираем у чипа его сильную сторону в лице curve. Так мы не даем GPU в слабо нагруженных режимах использовать большие напряжения и соответственно частоту до достижения предела энергопотребления.

Настройка частоты/напряжения чипа

  1. Устанавливаем и запускаем Afterburner.
  2. Активируем параметры на скриншоте.
  3. Повышаем лимиты температуры и энергопотребления, чтобы они нам меньше мешали.
  4. Включаем скорость вентиляторов на максимум, чтобы убрать или хотя-бы снизить влияние температурной корректировки (об этом ниже), удерживая последнюю в пределах 50-55°С.
  5. Сохраните настройки в 1 пресет, чтобы было проще к ним возвращаться.
  6. Чтобы не было дополнительного ограничения производительности, отключаем принудительную настройку вертикальной синхронизации и быстрого отклика в Панели управления Nvidia, если они у вас активированы например для корректной работы VRR (Variable Refresh Rate).
  7. Запускаем OS Scanner, даем Afternurner самостоятельно найти в меру безопасные частоты для четырех напряжений GPU и на их основе построить новую curve.
  8. Сохраните настройки во второй пресет.

В данном случае примерно на 90% результат по GPU закончен. Остальные 10% придется настроить вручную, но перед этим стоит осветить некоторую информацию:

  • Частоты чипа меняются шагами в 12,5 МГц у GTX 1000 серии и 15 МГц у GTX 1600 — RTX 3000 серий.
  • Максимальное напряжение чипа, доступное для настройки с повышением предела напряжения — 1093 мВ. Использовать его можно только через Сurve Editor, потому что в стандартную curve зашивается максимум 1050 мВ, доступное без увеличения предела напряжения. В LN2 биосах для экстремального разгона, распространяемых среди оверклокеров, доступно 1200 мВ.
  • При превышении температуры 50-60°С по чипу (параметр зашит в биос) начинается сброс частоты чипа относительно настроенной в curve. По одному шагу на каждые 5-6°С роста температуры. При приближении используемого напряжения к своему пределу сброс может происходить по 2 шага. Например настроенная в Сurve Editor при 50°С температуры по чипу 1950 МГц частота при напряжении 1000 мВ в момент75°С эксплуатации карты может легко превратиться в 1860-1890 МГц (-3-4 шага частоты).
  • В биос карты зашит минимальный предел используемого ею напряжения при автоматической регулировке curve. У Asus Strix — это 775 мВ, а у Palit JetStream — 712 мВ. Вручную можно зафиксировать и меньшие напряжения.
  • Ускорители в ноутбуках для большей энергоэффективности используют меньшие напряжения по сравнению с десктопными. Для расширения доступных пределов Curve Editor в папке Afterburner в файле MSIAfterburner. cfg найдите и измените по своему усмотрению параметры VFCurveEditor.

Итак, ручная настройка:

  1. Открываем Curve Editor.
  2. Запускаем GPU-Z и переключаемся на вкладку сенсоров.
  3. Устанавливаем и запускаем 3DMark. Настраиваем и запускаем тест FireStrike в оконном режиме. Нам понадобиться циклический прогон первого графического теста. Судя по моей практики он быстрее прочих и на более ранних этапах отсеивает нестабильные сочетания частот/напряжений. Вместо него можно использовать бесплатный Unigine Heaven, но по моему опыту он справляется с этой задачей чуть хуже.

Для классических настольных GPU нужно донастроить частоты для напряжений выше 1000 мВ, которые os scanner обычно качественно до предела напряжения не подбирает.

  • Нажимаем на точку, соответствующую 1000mV, нажимаем L на клавиатуре, чтобы заблокировать используемое напряжение (тут можно найти информацию по всем горячим клавишам для взаимодействия c Curve Editor).
  • Сдвигаем настроенную частоту мышкой или клавишами со стрелками вверх на один шаг. Двигаем по 3-4 точки, если одна не поддается.
  • Применяем настройку и тестируем стабильность в течении 1 минуты в запущенном тесте.
  • Иногда при указании минимального напряжения драйвер все равно может начать использовать большее или решит понизить на несколько шагов частоту в виду температурной корректировки. В таком случае снижаем и снова повышаем частоту нужного напряжения.
  • Повторяем процедуру, пока в окне теста не начнут появляться артефакты (примеры ниже), или он не вылетит с перезапуском или без драйвера.
  • В этот момент выключаем тест, снижаем частоту минимум на 4 шага назад для реализации большей стабильности во всех используемых приложениях, применяем настройку и сохраняем пресет.
  • Повторяем тоже самое для 1050 и 1093 мВ напряжений.
  • Не забудьте почаще сохранять пресет, чтобы в случае сбоя легко откатиться до последней успешной настройки.
  • После нахождения всех частот, достраиваем смежные частоты согласно предыдущей части кривой, применяем настройку и сохраняем пресет.

Также можете попробовать вручную аналогичным образом найти частоты для других напряжений (700-1000 мВ). Но чаще всего os scanner уже справляется с этим эффективно, находя первую нестабильную частоту и отступая от нее 4-5 шагов для большей безопасности. Не гонитесь за каждым шагом: чем выше частота, тем шаг в процентном соотношении прироста будет значить меньше.

Для мобильных GPU тем же способом настройте напряжения ниже 700 мВ, разблокировав их видимость в Curve Editor по инструкции выше.

Так выглядели у меня процесс настройки на 4K экране и полученные в итоге результаты кривой:

После настройки чипа настоятельно советую прогнать тесты стабильности Firestrike, TimeSpy и Port Royal на ограничениях энергопотребления в 60, 80, 100% и максимальном значении, чтобы по максимуму проверить стабильность всех частот. Это конечно займет какое-то время, но вернется вам максимальной уверенностью в стабильности настройки.

Настройка памяти

  1. Переключаемся на первый пресет, чтобы отсечь влияние от настройки чипа
  2. Запускаем второй графический тест Firestrike в циклическом режиме.
  3. Опускаем скорость работы системы охлаждения карты и компьютера, дав прогреться памяти до 80°С, или Hotspot до 85-90°С, если датчика температуры памяти у видеоускорителя нет.
  4. Прибавляем по 100 МГц частоты памяти ползунком и тестируем аналогично по минуте, сохраняемся и продолжаем, пока не начнут появляться артефакты. Чаще всего это будет артефакт «шахматная доска» или halo.
  5. После появления артефактов снижаем частоту памяти минимум на 300 МГц для большей стабильности.

Не стоит спешить с процессом и прибавлять по 200-300 МГц, потому что сильный переразгон памяти чаще приводит ни к вылету приложения или драйвера, а к зависанию компьютера. Кстати артефакт «шахматная доска» в первые несколько раз смены фазы теста в момент черного экрана не свидетельствует о нестабильности результата.

Проверьте стабильность разгона путем запуска одного из тестов стабильности 3DMark (пары раз будет достаточно) или майнингом.

Разгоняя частоту памяти, мы повышаем ее общую пропускную способность (ПСП или Memory Bandwidth), что не всегда является узким местом для видеоадаптера. Поэтому обязательно протестируйте рациональность использования разгона в режимах без упора в предел энергопотребления и с ним. Второй вариант требуется, потому что память в разгоне начинает потреблять больше, тем самым немного отнимая доступную энергию у чипа, снижая используемые им частоты. Такие результаты получились у одной из моих испытуемых:

Как видите, даже с 200W ограничением энергопотребления прирост от разгона памяти достигает 2,9%, что свидетельствует о его целесообразности. Но это ~ 500 ГБ/сек ПСП. 600 ГБ/сек ПСП у RTX 3070 Ti и 750 ГБ/сек ПСП у RTX 3080 среднестатистически не требуют разгона, а частоты 900-1000 ГБ/сек ПСП у RTX 3080 Ti — 3090 Ti можно даже немного снизить, дав GPU больше разгуляться. В любом случае обязательно проверяйте это в часто используемых графических нагрузках.

Тестирование

Смысл разгона подсистемы памяти мы уже выяснили, пришла пора проверить к чему привел весь спектр наших манипуляций. Для этого я протестирую видеокарту с настроенной Curve и памятью в различных режимах ограничения энергопотребления при зафиксированных оборотах вентиляторов с уровнем шума 35 дБ на расстоянии 30 см от системного блока — отчетливо слышимый в ночное время, но совершенно меня не раздражающий относительно тихий шум (фоновый уровень шума ночью в моей местности составляет 25-28 дБ). Некоторые интернет издания использую шумовые уровни 32-33 дБ и 35-36 дБ как границы условной бесшумности и условного комфорта.

Для достижения 35 дБ обороты вентиляторов на GeForce RTX 2080 Super Asus Strix были настроены на 1800 об/мин, а у RTX 2080 Palit JetStream на 1400 об/мин. Скорость остальных вентиляторов системного блока также была зафиксирована, чтобы не превышать указанный шумовой порог.

Используемый в тесте системный блок:

  • Материнская плата: AsRock Z370 Fatal1ty MITX/ac
  • Процессор: Intel Core i7 [email protected],9 ГГц (4,5 ГГц кэш)
  • Оперативная память: 32GB 3700 МГц 16-18-18-38-1T + настроены вторичные и третичные тайминги (~60 ГБ/с, 42 нс)
  • Накопитель: 1TB A-Data XPG Gammix S11 Pro
  • Корпус: Thermaltake V21
  • Блок питания: Chieftec SFX-500GD-C 500W 80+ Gold
  • Охлаждение: ID-Cooling SE-224-XT White радиатор + Arctic P12 PWM PST вентилятор на процессоре и 2 аналогичных вентилятора спереди на вдув и 1 сзади на выдув.

Для тестов я буду использовать специализированные бенчмарки 3DMark FireStrike, Time Spy и Port Royal, Superposition в режимах 1080p Medium и 8K Optimized для симуляции легкой мультиплеерной и максимальной синглплеерной нагрузок и встроенный бенчмарк игры Metro Exodus Enchanced Edition, который использует все технологии современных видеокарт Nvidia.

Изменение производительности RTX 2080 Super относительно состояния из коробки

При сохранении уровня энергопотребления (250 Вт) мы смогли повысить производительность видеокарты в среднем на 3,3% (5,2% максимум), при увеличении предела на 20% — на 4,6% в среднем и 7,3% максимум. В следствии высоко настроенной curve из коробки у нас не получилось достигнуть серьезных результатов в разгоне, впрочем за счет большего частотного запаса на меньших напряжениях мы смогли снизить энергопотребление ускорителя на 20% не потеряв производительности и на 30% со средней 2,3% потерей (-3,5% максимум). -40% и особенно -50% приводят к более серьезному падению производительности. И, если 40% снижение лимита с 10% снижением производительности (-3,3% минимум) еще имеет смысл использовать для мультиплеерных баталий в современных проектах, особенно в VRR 120-165 Гц режиме, то 50% урезание лимита со средним 32% падением производительности стоит задействовать лишь для графически нетребовательных синглплеерных игр прошлых лет или легких мультиплеерных проектов. Столь серьезное падение производительности происходит в следствии невозможности ускорителя использовать в автоматическом режиме напряжения ниже 775 мВ и следующего за этим чрезмерного снижения частоты.

Изменение производительности RTX 2080 относительно состояния из коробки

Ситуация с GeForce RTX 2080 от Palit складывается куда интересней. По причине не столь высоко настроенной Curve из коробки получается достигнуть более впечатляющего среднего 9,2% прироста производительности (+12,6% максимального), которое правда не получается улучшить за счет увеличения предела энергопотребления на 20%, потому что в и в рамках 250 Вт практически весь диапазон напряжений чипом уже используется. Но и увеличение эффективности энергопотребления проходит лучше, ведь даже при 50% снижении лимита (6,5% среднее и 11% максимальное снижение производительности) минимальный предел напряжения оказывается не достигнутым и для функционирования используются частоты из диапазона наиболее эффективных. Но и у этого ускорителя наиболее интересным я считаю режим -30% лимита энергопотребления с 3% приростом средней и 5% приростом максимальной производительности.

Теперь измерим температуры узлов ускорителей в различных режимах энергопотребления за счет цикличного прогона теста Superposition в течении 10 минут. Замеры проводились во время недавней августовской жары (30°С), поэтому в более приемлемых температурных условиях (20°С) результаты были бы еще лучше.

Полученные данные позволяет лучше понять причины столь низкого падения производительности при достаточно серьезных ограничениях энергопотребления: при 150-175 Вт (от -30 до -50%) потреблении температура чипа даже у более горячей Asus Strix достигает максимум 60°С, поэтому падение частоты чипа в результате температурной коррекции происходит лишь на 1 шаг (15 МГц), и то редко по причине используемых в этом режиме 850-900 мВ напряжениях (1845-1935 МГц), лежащих далеко от максимального предела напряжения чипа. При дефолтных 250 Вт RTX 2080 прогревается уже до 71°С, а RTX 2080 Super до 78°С. В совокупности с близкими к пороговому напряжениями 1000-1050 мВ это приводит к 5-6 шагам снижения частоты до 1935-1980МГц с настроенной Curve и 1890-1950 МГц с дефолтной. Как видите, это не сильно отличается от частот, используемых чипом с настроенной Curve и -30% лимитом, поэтому и такое небольшое среднее 2,3% падение производительности при высоком выигрыше в энергопотреблении и тепловыделении.

Безусловно, при использовании водяной системы охлаждения с рационально подобранной мощностью, можно избавиться от роста температур выше 55°С, соответственно избавившись от температурной коррекции, и получив дополнительные 4-5% производительности. Ускорив работу вентиляторов и немного снизив нагрев, также можно добиться некоторого прироста. Но стоит ли игра свеч каждый решит для себя сам.

Настройка системы охлаждения

Это последняя манипуляция, доводящая настройку комфорта использования ускорителя до конца. И тут два пути: настроить вентиляторы на постоянную скорость работы или на переменную в зависимости от температуры. Я предпочитаю второй режим, чтобы снизить частоту и температурную дельту циклов нагрева-охлаждения чипа для продления срока его службы. Конечно в идеале стоило бы использовать функцию остановки вентиляторов из коробки, но к сожалению она не всегда функционирует корректно и не совместима с ручным профилем: из коробки температура остановки вентиляторов ниже температуры старта, чтобы избежать постоянного включения/отключения при длительной задержке температуры на одном значении, и в ручную аналогичным образом ее настроить не представляется возможным ввиду функциональных ограничений.

Работу вентиляторов на постоянной скорости можно настроить через основное окно Afterburner, переменная же скорость настраивается в окне настроек Afterburner на вкладке «Кулер»:

Настроенная кривая скорости видеокарты RTX 2080 Palit Jetstream, не позволяющая ей увеличивать температуру выше 60°С при -30% лимите энергопотребления.

  • Исходя из предпочитаемого лимита энергопотребления и шума, установим требуемую скорость работы вентиляторов при предпочитаемой температуре путем прогона любого высоконагруженного теста (например Superposition 8K Optimized) в течении времени требуемого для прогрева компонентов ускорителя и уравновешивания температур на постоянном уровне (10-20 мин).
  • Снизим скорость вентиляторов до минимально возможного уровня. Запуская различные программы без серьезной графической нагрузки (браузеры, лаунчеры, офисные приложения и т. д.) обратим внимание, до какой температуры прогревается видеокарта?
  • Зайдем в настройки кривой кулера.
  • Настроим минимально возможный нижний уровень работы вентилятора до установленного во втором шаге значения температуры c небольшим запасом в +2-3°С. У меня этот параметр чаще всего настроен на значения 45-50°С.
  • Настроим максимальное значение скорости и температуры, найденные при первом шаге с небольшим запасом в 3-5% по скорости.
  • Смежные значения построим по гиперболической кривой, чтобы снизить заметность изменения шума работы вентиляторов, если скоростной промежуток работы окажется сильно выше температурного. Оставшуюся правую часть кривой постройте по большим значениям лимита энергопотребления, если будете их использовать.
  • Сохраните настройки.

Такими нехитрыми способами повышаем частоту чипа и памяти, увеличивая эффективность используемого напряжения, ограничиваем энергопотребление и настраиваем тишину работы системы охлаждение, ограничивая температурную коррекцию, и в итоге получаем тихую, энергоэффективную и производительную карту. Так можно настроить любую современную видеокарту Nvidia, сбалансировав ее слабые аспекты, на которых решил сэкономить производитель, не забывая конечно ее обслуживать, если это позволяет гарантия.

Теперь и новую 4000 серию с ее ожидаемым высоким энергопотреблением можно не бояться. Уже интересно пощупать и узнать, получится ли аналогично GeForce RTX 3080 Ti и 3090 скинуть им добрую сотню ватт без потери производительности.

P.S. Если графические приложения внезапно закрываются или вылетают, не забывайте проверять «Просмотр событий» («Журналы Windows» — «Система») на предмет упоминания перезапущенного драйвера — это прямой сигнал, что настройку видеокарты стоит подкорректировать.

Опрос

Следующей статьей от меня будет небольшой туториал по наиболее качественному просмотру видео контента на ПК с HDR, Dolby Vision, Dolby Atmos и прочими плюшками на обыкновенном оборудовании для массового зрителя с наглядными сравнения «было/стало». Но о чем писать дальше я пока не решил, поэтому собственно опрос:

Содержание скрыто

Показать

Самая быстрая видеокарта нового поколения от NVIDIA на 2022 год, грядущая GeForce RTX 4090, получает поддержку в AIDA64 4090.

AIDA64 добавляет поддержку флагмана NVIDIA 2022 года, графической карты GeForce RTX 4090

NVIDIA GeForce RTX 4090 станет флагманским предложением зеленой команды в этом году, заменив RTX 3090, выпущенную почти два года назад. Поскольку информация о большей части идентификатора устройства и информации о видеокарте уже просочилась, AIDA64 решила поддержать ее в своей последней бета-версии (6.70.6033), которая доступна здесь.

Утилита заявляет, что добавила «информацию о графическом процессоре для NVIDIA GeForce RTX 4090 (AD102)», но не говорит, что это за конкретная информация. Очень вероятно, что были добавлены исходные параметры устройства. Программное обеспечение впервые добавило такую ​​поддержку, даже раньше, чем GPU-z. GeForce RTX 4090 специально имеет идентификатор PCI «NVIDIA_DEV.2684». Ниже приведены примечания к выпуску последней версии AIDA64:

  • SMTP/поддержка TLS v1.2
  • Информация о графическом процессоре

  • для AMD Radeon Pro W6600 (Navi 23)
  • Информация о GPU для nVIDIA GeForce GTX 1630 (TU117)
  • Информация о GPU для nVIDIA GeForce RTX 4090 (AD102)
  • Информация о графическом процессоре для nVIDIA h200 96 ГБ (Gh200)
  • улучшенная поддержка процессора Intel Alder Lake-M/P
  • Информация о датчике материнской платы

  • для Asus Pro B550M-C Series
  • Информация о датчике материнской платы для MSI B650, X670, X670E Series
  • Информация о датчике материнской платы для MSI MS-7D66
  • исправлено: Тест стабильности системы / расчет среднего троттлинга
  • исправлено: перечисление графических процессоров AMD с несколькими графическими процессорами
  • исправлено: идентификация Intel Core i5-9300HF (он же Coffee Lake-H)
  • исправлено: идентификация Intel Core i7-9750HF (он же Coffee Lake-H)
  • удалено: Измерение температуры диода Intel PCH на Jginyue X99M-Plus V2

NVIDIA GeForce RTX 4090 «по слухам» Спецификации

Ожидается, что видеокарта NVIDIA GeForce RTX RTX 4090 будет оснащена топовым графическим процессором AD102-300, но только вариант «Ti» будет оснащен полным чипом. GeForce RTX 4090 будет использовать слегка урезанную конфигурацию.

NVIDIA GeForce RTX 4090 будет использовать 128 SM из 144 SM, всего 16 384 ядра CUDA. Графический процессор будет поставляться с 96 МБ кэш-памяти L2 и в общей сложности 384 ROP, что просто безумие. Тактовые частоты еще не подтверждены, но, учитывая, что используется процесс TSMC 4N, мы ожидаем тактовые частоты в диапазоне 2,0–3,0 ГГц.

Что касается характеристик памяти, ожидается, что GeForce RTX 4090 будет иметь емкость 24 ГБ GDDR6X, которая будет работать на скорости 21 Гбит/с через 384-битный интерфейс шины. Это обеспечит пропускную способность до 1 ТБ/с. Это та же пропускная способность, что и у существующей RTX 309.0 Ti, а что касается энергопотребления, говорят, что TBP рассчитан на 450 Вт, что означает, что TGP может оказаться ниже этого значения. Карта будет питаться от одного 16-контактного разъема, обеспечивающего мощность до 600 Вт. Вполне вероятно, что мы можем получить нестандартные конструкции мощностью 500 Вт+, как мы видели с RTX 3090 Ti.

Ожидается, что видеокарта будет запущена в октябре 2022 года, а за ней последует остальная часть линейки видеокарт Ada Lovelace с графическим процессором.

NVIDIA GeForce RTX 4090 Ti и RTX 4090 «Предварительные» характеристики:

Название видеокарты NVIDIA GeForce RTX 4090 Ti NVIDIA GeForce RTX 4090 NVIDIA GeForce RTX 30090 RTX 50090Ti 90590 Ti
Имя графического процессора Ада Лавлейс AD102-350? Ада Лавлейс AD102-300? Ампер GA102-350 Ампер GA102-300
Узел процесса TSMC 4N TSMC 4N Samsung 8 нм Samsung 8 нм
Размер матрицы ~600 мм2 ~600 мм2 628,4 мм2 628,4 мм2
Транзисторы Подлежит уточнению Подлежит уточнению 28 миллиардов 28 миллиардов
Ядра CUDA 18432 16128 10752 10496
TMU / ROP Подлежит уточнению / 384 Подлежит уточнению / 384 336/112 328/112
Tensor / RT Cores TBD / TBD TBD / TBD 336 / 84 328 / 82
Базовая частота Подлежит уточнению Подлежит уточнению 1560 МГц 1400 МГц
Boost Clock ~2800 МГц ~2600 МГц 1860 МГц 1700 МГц
Вычисление FP32 ~103 TFLOP ~90 терафлопс 40 терафлопс 36 терафлопс
RT TFLOP TFLOP TBD 74 TFLOP 69 TFLOP
Tensor-TOP TBD TBD 320 TOP 285 TOP
Объем памяти 24 ГБ GDDR6X 24 ГБ GDDR6X 24 ГБ GDDR6X 24 ГБ GDDR6X
Шина памяти 384-битная 384-битный 384-битный 384-битный
Скорость памяти 24,0 Гбит/с 21,0 Гбит/с 21,0 Гбит/с 19,5 Гбит/с
Полоса пропускания 1152 ГБ/с 1008 ГБ/с 1008 ГБ/с 936 Гбит/с
TGP 600 Вт 450 Вт 450 Вт 350 Вт
Цена (MSRP/FE) 1999 долларов США? 1499 долларов США? 1999 долларов США 1499 долларов США
Запуск (наличие) 2023? Октябрь 2022? 29 марта 2022 г. 24 сентября 2020 г.

Адаптеры питания NVIDIA GeForce RTX 40 серии PCIe Gen 5 имеют ограниченный срок службы при подключении и отключении 30 циклов

Видеокарты NVIDIA серии GeForce RTX 40 будут использовать новый адаптер питания PCIe Gen 5 потребности в мощности. В то время как только современные блоки питания, соответствующие новому стандарту ATX 3.0, могут предложить прямую одноконтактную маршрутизацию, пользователям, владеющим более старыми блоками питания, потребуется использовать адаптер с четырьмя 8-контактными разъемами, ведущими к одному кабелю Gen 5. .

Графическим картам NVIDIA GeForce RTX 40 потребуется новый кабель PCIe Gen 5 после 30 циклов подключения и отключения. было в течение последних 20+ лет. Те же 30 циклов существуют для стандартного 8-контактного разъема PCIe/ATX (он же Mini-Fit Molex). Тот же разъем используется AMD и всеми другими поставщиками графических процессоров, поэтому все эти карты также имеют общий срок службы 30 циклов.

Короче говоря, для серии графических процессоров RTX 40 ничего не изменилось.

Новая информация поступила от компании ZOTAC, которая указала на своем сайте срок службы одного переходного кабеля PCIe Gen 5. По словам производителя, компания предложила заменить адаптер PCIe gen 5, который состоит из 4x 8-контактных разъемов на 1x 16-контактный, после 30 подключений и отключений. Это означает, что пользователь может максимум 30 раз подключать и отключать кабель, прежде чем закончится его «ограниченный» срок службы.

ZOTAC предлагает ограниченный срок службы при отключении/подключении нового кабеля питания PCIe Gen 5 для серии NVIDIA GeForce RTX 40. (Изображение предоставлено Videocardz)

Видеокарты серии NVIDIA GeForce RTX 40 следующего поколения, включая RTX 4090 и TX 4080, будут поставляться в комплекте с такими кабелями, однако в каждый комплект будет входить только один кабель, поэтому энтузиасты, которые любят часто отключать свое оборудование и пробовать новые вещи, получат будьте осторожны, потому что вам потребуются новые кабели каждый раз, когда вы закончите период 30 жизненных циклов.

Кабель PCIe Gen 5 может обеспечить мощность до 600 Вт, однако, как заявила NVIDIA, четвертый 8-контактный разъем является необязательным и может использоваться для обеспечения большего запаса мощности для разгона. Графические процессоры могут быть установлены на тактовую частоту 3 ГГц+ с разгоном, как официально подтвердила компания.

«Каждая видеокарта GeForce RTX 40 Series Founders Edition сокращает количество кабелей благодаря использованию нового стандарта потребляемой мощности графического процессора блоков питания следующего поколения ATX 3.0 — 16-контактного разъема PCIe Gen-5. Это позволяет вам питать GeForce RTX Видеокарты серии 40 с одним кабелем, улучшающим внешний вид вашей сборки.Если вы используете блок питания предыдущего поколения, в комплект входит кабель-адаптер, позволяющий подключить три 8-контактных разъема питания с дополнительный четвертый разъем для большего запаса разгона. Блоки питания ATX 3.0 будут доступны в октябре от ASUS, Cooler Master, FSP, Gigabyte, iBuyPower, MSI, Silverstone и ThermalTake, а в будущем появятся и другие модели».

Читайте также: