Спецификации графического процессора: | |||||||
Ядра NVIDIA CUDA® | 10496 | 10240 | 8704 | 6144 | 5888 | 4864 | 3584 |
Тактовая частота с ускорением (ГГц) | 1.70 | 1.67 | 1.71 | 1.77 | 1.73 | 1.67 | 1.78 |
Базовая тактовая частота (ГГц) | 1.40 | 1.37 | 1.44 | 1.58 | 1.50 | 1.41 | 1.32 |
Стандартная конфигурация памяти | 24 ГБ GDDR6X | 12 ГБ GDDR6X | 10 ГБ GDDR6X | 8 ГБ GDDR6X | 8 ГБ GDDR6 | 8 ГБ GDDR6 | 12 ГБ GDDR6 |
Полоса пропускания шины памяти | 384-бит | 384-бит | 320-бит | 256-бит | 256-бит | 256-бит | 192-бит |
Поддержка технологий: | |||||||
Ядра для трассировки лучей | 2-го поколения | 2-го поколения | 2-го поколения | 2-го поколения | 2-го поколения | 2-го поколения | 2-го поколения |
Тензорные ядра | 3-го поколения | 3-го поколения | 3-го поколения | 3-го поколения | 3-го поколения | 3-го поколения | |
Архитектура NVIDIA | Ampere | Ampere | Ampere | Ampere | Ampere | Ampere | Ampere |
Microsoft DirectX® 12 Ultimate | Да | Да | Да | Да | Да | Да | Да |
NVIDIA DLSS | Да | Да | Да | Да | Да | Да | Да |
NVIDIA Reflex | Да | Да | Да | Да | Да | Да | Да |
NVIDIA Broadcast | Да | Да | Да | Да | Да | Да | Да |
PCI Express Gen 4 | Да | Да | Да | Да | Да | Да | Да |
Resizable BAR | Да | Да | Да | Да | Да | Да | Да |
Да | Да | Да | Да | Да | Да | Да | |
NVIDIA Ansel | Да | Да | Да | Да | Да | Да | Да |
NVIDIA FreeStyle | Да | Да | Да | Да | Да | Да | Да |
NVIDIA ShadowPlay | Да | Да | Да | Да | Да | Да | |
NVIDIA Highlights | Да | Да | Да | Да | Да | Да | Да |
NVIDIA G-SYNC® | Да | Да | Да | Да | Да | Да | Да |
Драйверы Game Ready | Да | Да | Да | Да | Да | Да | Да |
Драйверы NVIDIA Studio | Да | Да | Да | Да | Да | Да | |
NVIDIA GPU Boost™ | Да | Да | Да | Да | Да | Да | Да |
NVIDIA NVLink™ (Поддержка SLI) | Да | — | — | — | — | — | — |
Vulkan RT API, OpenGL 4.6 | Да | Да | Да | Да | Да | Да | Да |
Энкодер NVIDIA | 7-го поколения | 7-го поколения | 7-го поколения | 7-го поколения | 7-го поколения | 7-го поколения | 7-го поколения |
Декодер NVIDIA | 5-го поколения | 5-го поколения | 5-го поколения | 5-го поколения | 5-го поколения | 5-го поколения | 5-го поколения |
Поддержка VR | Да | Да | Да | Да | Да | Да | Да |
Поддержка дисплеев: | |||||||
Максимальное цифровое разрешение(1) | 7680×4320 | 7680×4320 | 7680×4320 | 7680×4320 | 7680×4320 | 7680×4320 | 7680×4320 |
Стандартные разъемы дисплея | HDMI(2), 3x DisplayPort(3) | HDMI(2), 3x DisplayPort(3) | HDMI(2), 3x DisplayPort | HDMI(2), 3x DisplayPort(3) | HDMI(2), 3x DisplayPort(3) | HDMI(2), 3x DisplayPort(3) | HDMI(2), 3x DisplayPort(3) |
Количество одновременно подключаемых мониторов | 4 | 4 | 4 | 4 | 4 | 4 | 4 |
HDCP | 2.3 | 2.3 | 2.3 | 2.3 | 2.3 | 2.3 | 2.3 |
Размеры: | |||||||
Длина | 12.3″ (313 мм) | 11.2″ (285 мм) | 11.2″ (285 мм) | 10.5″ (267 мм) | 9.5″ (242 мм) | 9.5″ (242 мм) | |
Ширина | 5.4″ (138 мм) | 4.4″ (112 мм) | 4.4″ (112 мм) | 4.4″ (112 мм) | 4.4″ (112 мм) | 4.4″ (112 мм) | |
Высота | 2 слота | 2 слота | 2 слота | 2 слота | 2 слота | ||
Температурные характеристики:: | |||||||
Максимальная температура видеокарты (°С) | 93 | 93 | 93 | 93 | 93 | 93 | 93 |
Энергопотребление (Вт) | 350 | 350 | 320 | 290 | 220 | 200 | 170 |
Рекомендованные системные требования по питанию (Вт) (2) | 750 | 750 | 650 | 600 | 550 | ||
Дополнительные разъемы питания | 2x Pcie 8-pin (входит адаптер 12-pin) | 2x Pcie 8-pin (входит адаптер 12-pin) | 2x Pcie 8-pin (входит адаптер 12-pin) | 2x Pcie 8-pin (входит адаптер 12-pin) | 1x Pcie 8-pin (входит адаптер 12-pin) | 1x Pcie 8-pin (входит адаптер 12-pin) |
GeForce GTX против GeForce RTX в играх будущего / Видеокарты
Первая серия тестов трассировки лучей на ускорителях без аппаратных RT-блоков завершилась позитивными результатами для владельцев старших моделей GeForce GTX. В робких и до поры до времени немногочисленных попытках освоить гибридный рендеринг разработчики не жадничают с эффектами DXR и позволяют регулировать их качество в достаточной степени, чтобы продлить жизнь мощным GPU прошлого поколения. В итоге GeForce GTX 1080 Ti может поспорить с GeForce RTX 2060 по быстродействию в Battlefield V и Shadow of the Tomb Raider, обеспечивая уверенно высокую частоту смены кадров в режиме 1080p. Но результаты бенчмарков Metro Exodus дали понять, что это лишь временное положение вещей. К этой игре GeForce GTX 1080 Ti допущен на правах бедного родственника.
Смогут ли графические процессоры, лишенные специализированных функций трассировки лучей, выжить в проектах следующей волны? Для того чтобы дать ответ на этот вопрос, мы не станем делать предсказания на основе результатов в уже выпущенных играх. К обновлению драйвера с поддержкой DXR на GPU архитектуры Pascal и младших чипах семейства Turing были опубликованы тестовые версии двух грядущих проектов, использующих гибридный рендеринг, — Atomic Heart и Justice. Кроме того, возможность приоткрыть завесу над будущим компьютерных игр предоставляют и бенчмарк 3DMark Port Royal, и деморолик Reflections на движке Unreal Engine 4. Эти тесты лежат далеко за пределом возможностей «Паскаля» и будут решать дальнейшую судьбу лучших видеокарт сегодняшнего дня — серии GeForce RTX.
Тестовый стенд, методика тестирования
Тестовый стенд | |
---|---|
CPU | Intel Core i9-9900K (4,9 ГГц, 4,8 ГГц в AVX, фиксированная частота) |
Материнская плата | ASUS MAXIMUS XI APEX |
Оперативная память | G.Skill Trident Z RGB F4-3200C14D-16GTZR, 2 × 8 Гбайт (3200 МГц, CL14) |
ПЗУ | Intel SSD 760p, 1024 Гбайт |
Блок питания | Corsair AX1200i, 1200 Вт |
Система охлаждения CPU | Corsair Hydro Series h215i |
Корпус | CoolerMaster Test Bench V1.0 |
Монитор | NEC EA244UHD |
Операционная система | Windows 10 Pro x64 |
ПО для GPU NVIDIA | |
NVIDIA GeForce RTX 20 | NVIDIA GeForce Game Ready Driver 419.67 |
NVIDIA GeForce GTX 10/16 | NVIDIA GeForce Game Ready Driver 425.31 |
Показатели средней и минимальной частоты кадров выводятся из массива времени рендеринга индивидуальных кадров, созданного с помощью утилиты OCAT. Тест 3DMark Port Royal приводит собственную статистику средней кадровой частоты.
Средняя частота смены кадров на диаграммах является величиной, обратной среднему времени кадра. Для оценки минимальной кадровой частоты вычисляется количество кадров, сформированных в каждую секунду теста. Из этого массива чисел выбирается значение, соответствующее 1-му процентилю распределения.
Участники тестирования
В тестировании производительности приняли участие следующие видеокарты:
⇡#
Atomic HeartБенчмарк грядущей игры Atomic Heart не содержит каких бы то ни было настроек, помимо возможности включить масштабирование кадра с помощью DLSS, а максимальное разрешение экрана составляет 2560 × 1600 пикселов. Трассировка лучей здесь всегда активна. По той причине, что движок Atomic Heart использует DXR для рендеринга двух различных эффектов — теней и отражений света (включая множественную трассировку лучей между несколькими зеркальными поверхностями), тестовая сцена представляет собой серьезную задачу даже для ускорителей на чипах Turing с выделенными RT-ядрами. Старшие модели NVIDIA (GeForce RTX 2080 и RTX 2080 Ti) с запасом превосходят отметку 60 кадров/с в режиме 1080p, в то время как RTX 2060 и RTX 2070 зажаты в диапазоне 45–55 FPS. Напротив, при разрешении 1440p даже GeForce RTX 2080 Ti не достиг порогового значения 60 FPS, а результаты GeForce RTX 2060 упали ниже 30 FPS.
Финальная версия Atomic Heart наверняка позволит регулировать качество эффектов DXR, чтобы снизить нагрузку на графический процессор. Кроме того, у разработчиков еще есть несколько месяцев для всесторонней оптимизации движка. Но в существующем виде игра явно превосходит возможности любых ускорителей на графических процессорах Pascal. Все, на что способен GeForce GTX 1080 Ti, — это 26 FPS при разрешении 1080p и 15 FPS в режиме 1440p, что уж говорить о менее производительных устройствах серии GTX 10.
При столь высокой нагрузке, как в Atomic Heart, даже видеокарты GeForce GTX 1660 и GTX 1660 Ti, лишенные специализированных блоков трассировки лучей, имеют преимущество перед большинством моделей прошлого поколения. Оба новых ускорителя средней ценовой категории превосходят GeForce GTX 1080 — такого разгрома архитектуры Pascal мы еще не видели. Но как бы то ни было, для того, чтобы развить приемлемую частоту смены кадров, абсолютной вычислительной мощности чипа TU116 все еще совершенно недостаточно.
Китайскую MMORPG Justice нельзя без оговорок назвать игрой будущего, ведь она была запущена еще в прошлом году. Но в ближайшее время разработчики намерены внедрить в Justice эффекты трассировки лучей и выпустили отдельный бенчмарк для оценки их производительности. В отличие от других тестов в сегодняшней подборке, движок Justice не настолько перегружен эффектами DXR, чтобы поставить на колени любые GPU, за исключением старших моделей семейства Turing. Ray Tracing здесь используется для рендеринга однократных отражений в зеркальных поверхностях, теней, а также преломления света в жидкой среде (caustics). Кроме того, без учета трассировки лучей Justice является довольно-таки нетребовательной игрой, как и положено любым соперникам World of Warcraft. А благодаря возможности отключить трассировку лучей в тесте Justice, мы провели базовую линию производительности участников теста и оценили воздействие RT на частоту смены кадров в процентном отношении.
Полученные данные вполне соответствуют той картине, которую мы наблюдали в других проектах с условно нетребовательными эффектами DXR (Battlefield V и Shadow of the Tomb Raider). Трассировка лучей в равной степени влияет на производительность игры при трех различных разрешениях экрана (1080p, 1440p и 2160p), если в кристалле GPU нет специализированной логики для расчетов траектории лучей. Так, «зеленые» видеокарты прошлого поколения в большинстве случаев теряют от 74 до 79 % средней кадровой частоты (только GeForce GTX 1080 Ti отделался 63 % в режиме 1080p). Новинки на чипе TU116 (GeForce GTX 1660 и GTX 1660 Ti) оказались в более выгодном положении за счет прогрессивной организации шейдерных ALU и пострадали лишь на 62–65 % FPS.
И разумеется, лучший результат продемонстрировали ускорители на чипах Turing с RT-ядрами. При разрешении 1080p быстродействие видеокарт серии GeForce RTX пострадало всего лишь на 18–27, в режиме 1440p — на 21–32, а в 2160p — на 31–33 %. Обратите внимание, как сильно в этой группе выделяется флагманская модель — GeForce RTX 2080 Ti понес заметно меньшие потери по сравнению с RTX 2060, RTX 2070 и RTX 2080 при разрешениях ниже 2160p. Впрочем, своими выдающимися результатами при условно низких разрешениях новые GPU обязаны не только архитектуре Turing, но и тому обстоятельству, что без эффектов DXR частота смены кадров в Justice ограничена быстродействием центрального процессора на уровне 126–127 FPS.
В абсолютных показателях частоты смены кадров Justice с трассировкой лучей легко дается всем видеокартам под маркой GeForce RTX при разрешении экрана 1080p и 1440p. GeForce RTX 2060 отступил на 3 кадра/с от критического значения 60 FPS в режиме 1440p, но старшие модели уверенно преодолели эту границу. А вот в режиме 4К даже GeForce RTX 2080 Ti не достиг 60 FPS, в то время как RTX 2060 опустился ниже 30.
Среди видеокарт на чипах Pascal нет ни одного устройства, способного вывести Justice на уровень 60 FPS. Ускорители серии GTX 10 прикованы к режиму 1080p, да и то лишь три старшие модели (GTX 1070 Ti, GTX 1080 и GTX 1080 Ti) по своим возможностям соответствуют минимальному критерию 30 FPS. То же относится к GeForce GTX 1660 и GTX 1660 Ti, хотя, к чести новинок NVIDIA, стоит признать, что в тесте Justice они снова выступили не хуже GeForce GTX 1080.
Justice | ||
---|---|---|
1920 × 1080 | ||
RT Off | RT On | |
NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт) | 100% | -18% |
NVIDIA GeForce RTX 2080 FE (8 Гбайт) | 100% | -20% |
NVIDIA GeForce RTX 2070 FE (8 Гбайт) | 100% | -21% |
NVIDIA GeForce RTX 2060 FE (6 Гбайт) | 100% | -27% |
NVIDIA GeForce GTX 1660 Ti (6 Гбайт) | 100% | -65% |
NVIDIA GeForce GTX 1660 (6 Гбайт) | 100% | -64% |
NVIDIA GeForce GTX 1080 Ti (11 Гбайт) | 100% | -63% |
NVIDIA GeForce GTX 1080 (8 Гбайт) | 100% | -74% |
NVIDIA GeForce GTX 1070 Ti (8 Гбайт) | 100% | -74% |
NVIDIA GeForce GTX 1070 (8 Гбайт) | 100% | -77% |
NVIDIA GeForce GTX 1060 (6 Гбайт) | 100% | -77% |
Justice | ||
---|---|---|
2560 × 1440 | ||
RT Off | RT On | |
NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт) | 100% | -21% |
NVIDIA GeForce RTX 2080 FE (8 Гбайт) | 100% | -30% |
NVIDIA GeForce RTX 2070 FE (8 Гбайт) | 100% | -33% |
NVIDIA GeForce RTX 2060 FE (6 Гбайт) | 100% | -32% |
NVIDIA GeForce GTX 1660 Ti (6 Гбайт) | 100% | -65% |
NVIDIA GeForce GTX 1660 (6 Гбайт) | 100% | -64% |
NVIDIA GeForce GTX 1080 Ti (11 Гбайт) | 100% | -76% |
NVIDIA GeForce GTX 1080 (8 Гбайт) | 100% | -77% |
NVIDIA GeForce GTX 1070 Ti (8 Гбайт) | 100% | -77% |
NVIDIA GeForce GTX 1070 (8 Гбайт) | 100% | -78% |
NVIDIA GeForce GTX 1060 (6 Гбайт) | 100% | -79% |
Justice | ||
---|---|---|
3840 × 2160 | ||
RT Off | RT On | |
NVIDIA GeForce RTX 2080 Ti FE (11 Гбайт) | 100% | -31% |
NVIDIA GeForce RTX 2080 FE (8 Гбайт) | 100% | -23% |
NVIDIA GeForce RTX 2070 FE (8 Гбайт) | 100% | -33% |
NVIDIA GeForce RTX 2060 FE (6 Гбайт) | 100% | -33% |
NVIDIA GeForce GTX 1660 Ti (6 Гбайт) | 100% | -63% |
NVIDIA GeForce GTX 1660 (6 Гбайт) | 100% | -62% |
NVIDIA GeForce GTX 1080 Ti (11 Гбайт) | 100% | -77% |
NVIDIA GeForce GTX 1080 (8 Гбайт) | 100% | -78% |
NVIDIA GeForce GTX 1070 Ti (8 Гбайт) | 100% | -77% |
NVIDIA GeForce GTX 1070 (8 Гбайт) | 100% | -78% |
NVIDIA GeForce GTX 1060 (6 Гбайт) | 100% | -79% |
⇡#
3DMark Port RoyalВ отличие от других разделов пакета 3DMark, синтетический тест гибридного рендеринга Port Royal состоит из единственной сцены, поэтому итоговая оценка в баллах, которую получили видеокарты, прямо пропорциональна средней частоте смены кадров. Если представить себе игру с настолько высокой плотностью эффектов DXR, как в Port Royal (а здесь на Ray Tracing основаны все главные компоненты освещения), то лишь один из протестированных ускорителей обладает подходящим для нее уровнем быстродействия — GeForce RTX 2080 Ti. Да и то все, на что оказался способен флагманский GPU нового поколения, — это перешагнуть отметку 30 FPS в стандартном для Port Royal разрешении 1440p.
Вместе с тем 3DMark наглядно продемонстрировал преимущество архитектуры Turing перед графическими процессорами Pascal, которое распространяется на весь арсенал моделей GeForce RTX. Если в современных играх с поддержкой трассировки лучей старшие представители серии GeForce 10 (GTX 1080 и GTX 1080 Ti) могут поспорить с GeForce RTX 2060, то здесь флагман прошлого поколения ровно в два раза уступает младшему Turing по средней кадровой частоте.
Если двигаться вниз по модельному ряду GeForce 10, то отставание GeForce GTX 1070 от GeForce RTX 2060 достигает трехкратного значения, а у GeForce GTX 1060 дефицит вычислительных ресурсов переходит в критическую фазу, когда видеокарте требуется несколько секунд, чтобы сформировать единственный кадр. И дело вовсе не в объеме оперативной памяти GPU, ведь GeForce GTX 1660 и GTX 1660 Ti, оснащенные 6 Гбайт RAM, не уступают своим ближайшим аналогам на чипах Pascal (GTX 1070 и GTX 1070 Ti) с 8 Гбайт локальной памяти и даже превосходят их по средней частоте смены кадров и оценке в баллах.
⇡#
UE4 ReflectionsРанее короткий ролик Reflections на движке Unreal Engine 4 уже не раз участвовал в тестах трассировки лучей и DLSS на видеокартах GeForce RTX. Однако для исследования возможностей DXR на чипах предыдущего поколения NVIDIA создала отдельную версию программы и позволяет скачать ее с собственного сайта вместе с бенчмарками Justice и Atomic Heart. Reflections лишился поддержки DLSS, зато исчезло и ограничение по разрешению экрана (раньше ролик был привязан к режимам 1440p и 2160p, на которых была выполнена тренировка нейросети DLSS).
В обновленной версии ролика есть иная особенность, которая затрудняет его применение в качестве универсального бенчмарка трассировки лучей: частота смены кадров на старших ускорителях серии GeForce RTX (RTX 2080 и RTX 2080 Ti) не может превышать 48 FPS, а для всех остальных моделей установлен лимит в 24 FPS. Однако это препятствие вступает в силу лишь при разрешении 1080p, когда у соответствующих GPU есть избыток вычислительной мощности. Если о каком-либо избытке быстродействия вообще можно рассуждать применительно к Reflections, ведь эта сцена практически целиком освещается при помощи трассировки лучей.
В этом режиме GeForce RTX 2060, RTX 2070 и 2080 Ti достигли разрешенных значений 24 и 48 FPS соответственно, в то время как лучшая из потребительских видеокарт прошлого поколения (GeForce GTX 1080 Ti) набрала скромные 16 кадров/с. Как видите, паритет между GeForce RTX 2060 и GTX 1080 Ti, который мы зафиксировали в предыдущей части статьи, вновь был нарушен при столь агрессивной нагрузке, как в демо Reflections.
Рендеринг Reflection в режиме 1440p является пределом возможностей для любого из современных GPU без помощи таких методов, как DLSS. Даже GeForce RTX 2080 Ti с трудом преодолел отметку 30 FPS, а быстродействие видеокарт без RT-блоков характеризуется однозначными числами.
Модели серии GeForce 16 вновь продемонстрировали достоинства архитектуры Turing: при разрешении экрана ниже 4К GeForce GTX 1660 и GTX 1660 Ti не отстают от GeForce GTX 1080. Положение меняется при разрешении 2160p, когда программе недостаточно 6 Гбайт оперативной памяти GPU, но в таком случае Reflections не по зубам и самому GeForce RTX 2080 Ti.
⇡#
ВыводыВслед за первой стычкой GeForce GTX и GeForce RTX на поле игр с трассировкой лучей мы сравнили быстродействие аппаратной и программной реализации DXR в перспективных проектах и двух откровенно футуристических тестах гибридного рендеринга.
Предварительные версии Atomic Heart и Justice дают понять, как будут выглядеть компьютерные игры в ближайшие несколько месяцев. И здесь, увы, уже нельзя поставить на один уровень какие бы то ни было устройства NVIDIA прошлого и современного поколения. Даже в Justice — а это сравнительно легкая игра без трассировки лучей — GeForce GTX 1080 Ti не достиг оптимального уровня быстродействия в 60 FPS при разрешении 1080p, а в Atomic Heart бывшему флагману не светят и минимальные 30. В обоих тестах GeForce RTX 2060 превосходит GeForce GTX 1080 Ti практически вдвое. При столь печальных результатах еще недавно столь могучего GeForce GTX 1080 Ti обсуждать достижения других видеокарт на чипах Pascal, пожалуй, и вовсе не стоит.
Да и младшие представители серии GeForce RTX в такой тяжелой игре, как Atomic Heart, уже близки к пределу своих возможностей и оказались заперты в режиме 1080p, хотя прекрасно чувствуют себя в Justice. Вполне может сложиться и такая ситуация, что ко времени массового внедрения гибридного рендеринга те устройства, которые инициировали поворот игроделов в этом направлении, будут уже не актуальны.
А что касается деморолика Reflections на движке Unreal Engine 4 и тем паче теста Port Royal в пакете 3DMark, то в пейзаже уже не завтрашнего, а послезавтрашнего дня совсем нет места GPU без аппаратных расчетов трассировки лучей. А если начистоту, то и современным ускорителям Turing неминуемо придется уступить место новой итерации чипов NVIDIA.
Если Вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
NVIDIA серия | Видеокарты — GIGABYTE Russia
Server motherboards for demanding applications come in form factors: EEB/E-ATX/ATX/microATX/mini-ITX.
Innovation and performance are in these optimal rack servers to be deployed in data centers with demanding applications.
Scalable parallel computing GPU dense servers that are built for high performance.
Compute, Storage, and Networking are possible in high density, multi-node servers at lower TCO and greater efficiency.
Based on OCP Open Rack Standards, barebone racks and nodes for datacenters.
Stand-alone chassis for customers to customize and expand as needs change.
Processing power, large amounts of data, fast networking, and accelerators all bundle into a scale out ready HPC and/or AI server solution.
Systems that do visual applications from computer graphics to computer animation rely on visual computing servers.
Processing power, large amounts of data, fast networking, and accelerators all bundle into a scale out ready HPC and/or AI server solution.
Software defined cluster of nodes can be dedicated for compute, storage, networking, or virtualization.
Capacity, reliability, and storage flexibility are built into these storage servers for enterprise and datacenters.
Securely manage the use of files and applications for office environments while storing large amounts of data.
Server resources are effectively allocated via virtualization, and these servers are highly flexible.
Real time data processing at the source is required for edge computing with reduced latency for Internet of Things (IoT) and 5G networks as they use cloud.
Обзор GeForce GTX 1650 — тестирование в 10 играх и характеристики
Основанная на графическом процессоре TU117, новая GeForce GTX 1650 включает в себя все инновации архитектуры Turing, повышающие производительность и эффективность видеокарты, включая поддержку одновременных операций с плавающей запятой и целыми числами, унифицированную архитектуру кэш-памяти с большим кэшем L1 и адаптивное затенение.
TDP нового графического процессора составляет всего 75 Вт, и это означает, что для него не требуется внешний разъем питания. Таким образом это будет самая мощная видеокарта на данный момент, не требующая внешнего питания PCIe.
GeForce GTX 1650 включает в себя 896 ядер CUDA, что на 36% меньше, чем у GTX 1660. Это самое большое снижений ядер среди всех видеокарт на базе Turing. При переходе с RTX 2080 на 2070, с 2070 на 2060, с 2060 на 1660 Ti наблюдается сокращение ядер примерно на 20%, затем на 8% с 1660 Ti на 1660. Единственный другой пример снижения более чем 30% присутствовал между RTX 2080 Ti и RTX 2080, где мы видим снижение количества ядер на 32%, что привело к снижению производительности примерно на 25% в разрешении 4К. Ожидается, что мы увидим аналогичное снижение для GTX 1650 по сравнению с GTX 1660. Помимо снижения числа ядер у 1650 снижена и пропускная способность памяти на 33%.
Более того, в то время как GTX 1660 оснащена 6 ГБ памяти GDDR5, GTX 1650 получила 4 ГБ, используя шину памяти шириной 128 бит для максимальной пропускной способности памяти в 128 ГБ/с. Тактовые частоты по умолчанию – 1485 МГц и 1665 МГц в разгоне, что на 7% меньше тактовой частоты GTX 1660.
Тестирование GTX 1650
Согласно NVIDIA, GTX 1650 в два раза быстрее, чем GTX 950 и на 70% быстрее, чем GTX 1050 в разрешении 1080p. Протестируем GTX 1650 в десяти играх в разрешении Full HD. Тестовый стенд – Intel Core i9-9900K 5 ГГц и оперативная память DDR4-3200.
World War Z
Начнем тестирование с новинки – World War Z. GTX 1650 в World War Z выдала 68 кадров на ультра настройках. Это на 26% больше, чем выдает GTX 1050 Ti, но на 15% меньше, чем у GTX 1060 3 ГБ.
Apex Legends
Производительность в Apex Legends располагается между GTX 1060 3 ГБ и RX 570. Видеокарта RX 570 оказалась быстрее на 4%, а GTX 1060 3 ГБ на 1% слабее. В обоих случаях отклонения не превышают 3 кадра в секунду.
The Division 2
The Division 2 оптимизирована в сторону видеокарт AMD, что приводит к 27% разнице в производительности между RX 570 и GTX 1650 в пользу первой.
Shadow of the Tomb Raider
В Shadow of the Tomb Raider GTX 1650 вплотную приблизилась к GTX 1060 3 ГБ и RX 570 показав 49 кадров в секунду.
Forza Horizon 4
GTX 1650 выдает 61 FPS в Forza Horizon 4 и опережает GTX 1060 3 ГБ, но показывает результат на 21% ниже, чем RX 570.
Fortnite
С 77 кадрами в секунду GTX 1650 опережает на несколько кадров RX 570 и обгоняет GTX 1050 Ti на 26%.
Metro Exodus
GTX 1650 в Metro Exodus незначительно уступает RX 570 и GTX 1060 3 ГБ, опережая GTX 1050 Ti.
Rainbow Six Siege
В популярном шутере Rainbow Six Siege GTX 1650 опережает и RX 570 и GTX 1060 3 ГБ, выдавая 79 кадров.
Battlefield V
GTX 1650 в Battlefield V была на 26% быстрее, чем GTX 1050 Ti, и на 11% медленнее, чем 1060 3GB.
Far Cry New Dawn
GTX 1650 не впечатляет в Far Cry New Dawn, она на 23% быстрее, чем GTX 1050 Ti, но на 18% медленнее, чем RX 570 и GTX 1060 3 ГБ.
Потребляемая мощность и температура GTX 1650
GTX 1650 впечатляет в плане энергопотребления. Видеокарта Gigabyte увеличила общее потребление системы до 184 Вт, а видеокарта от MSI до 192 Вт. Разница в производительности составила 30%, но энергопотребление увеличилось всего на 10%. Для сравнения – Radeon RX 560 увеличило потребление системы сразу на 55%. Таким образом GTX 1650 получилась весьма эффективной в этом плане.
MSI Gaming X достигла температуры в 61 градус в комнате с 21-градусной температурой. И это на частоте 1920 МГц, это очень крутой результат. Gigabyte Gaming OC добилась наилучшего результата с пиковой температурой в 58 градусов на частоте в 1950 МГц.
GTX 1650 vs GTX 1060 3 ГБ
По сравнению с GTX 1060 3GB (более дорогой видеокартой), GTX 1650 показывает себя в среднем на 9% медленнее, в редких играх обгоняя на несколько процентов.
GeForce GTX 1050 Ti vs 1650 [в 6 бенчмарках]
Общая производительность в тестах
Это наш суммарный рейтинг производительности. Мы регулярно улучшаем наши алгоритмы, но если вы обнаружите какие-то несоответствия, не стесняйтесь высказываться в разделе комментариев, мы обычно быстро устраняем проблемы.
3DMark Cloud Gate GPU
Cloud Gate — это устаревший бенчмарк, использующий DirectX 11 feature level 10, применявшийся для тестирования домашних ПК и недорогих ноутбуков. Он отображает несколько сцен с каким-то странным устройством телепортации, запускающим космические корабли в неизведанное, с фиксированным разрешением 1280×720. Так же, как и в случае с бенчмарком Ice Storm, его поддержка была прекращена в январе 2020 года, теперь вместо него рекомендуется использовать 3DMark Night Raid.
3DMark Fire Strike Score
3DMark Fire Strike Graphics
Fire Strike — это бенчмарк DirectX 11 для игровых ПК. В нем есть два отдельных теста, демонстрирующих борьбу между гуманоидом и огненным существом, похоже, сделанным из лавы. Используя разрешение 1920×1080, Fire Strike демонстрирует достаточно реалистичную графику и довольно требователен к оборудованию.
3DMark 11 Performance GPU
3DMark 11 — это устаревший бенчмарк DirectX 11 от Futuremark. Он использовал четыре теста, основанных на двух сценах: одна из них — это несколько подводных лодок, исследующих затонувший корабль, другая — заброшенный храм в глубине джунглей. Все тесты широко используют объемное освещение и тесселяцию, и, несмотря на то, что выполняются в разрешении 1280×720, являются относительно тяжелыми. Поддержка 3DMark 11 прекращена в январе 2020 года, теперь вместо него предлагается использовать Time Spy.
3DMark Ice Storm GPU
Ice Storm Graphics — устаревший бенчмарк, часть пакета 3DMark. Ice Storm использовался для измерения производительности ноутбуков начального уровня и планшетов на базе Windows. В нем используется DirectX 11 feature level 9 для отображения битвы между двумя космическими флотами вблизи замерзшей планеты в разрешении 1280×720. Поддержка Ice Storm прекращена в январе 2020 года, теперь разработчики рекомендуют взамен использовать Night Raid.
Passmark
Это очень распространенный бенчмарк, входящий в состав пакета Passmark PerformanceTest. Он дает видеокарте тщательную оценку, производя четыре отдельных теста для Direct3D версий 9, 10, 11 и 12 (последний по возможности делается в разрешении 4K), и еще несколько тестов, использующих возможности DirectCompute.
Чем отличается видеокарта GT от GTX
В классификации видеокарт «NVidia GeForce» применяется система буквенных и числовых индексов. Линейка «GeForce» разделяется на множество серий, обозначаемых трёх или четырёхзначным числом, а серии, в свою очередь, определяются набором видеоускорителей с разной мощностью, которые маркируются сложными аббревиатурами, как правило, начинающимися на «G». Например, о видеокарте «NVidia GeForce 8600 GT» можно сказать следующее: она относится к линейке продуктов «GeForce» серии 8600, индекс мощности – GT.
Различия в видеокартах GTX и GT заключаются во множестве параметров. Конечно, их параметры непостоянны, поскольку зависят от серии видеокарты, но есть некоторые аспекты, по которым между ними можно поставить знак «больше» или «меньше».
Существует такая характеристика видеокарт, как ширина шины – размер информации, обрабатываемый ей за один такт работы прямо пропорционален этой величине. Ширина GT позволяет обрабатывать за 1 такт 128 бит.
КПД является параметром, отражающим производительность видеоускорителя на 1 Ватт потреблённой электроэнергии, иными словами, показателем экологичности карты. Зелёный КПД отражается в процентах. У GT-карт он редко доходит до отметки половины возможного.
Соотношение «цена-качество» тоже можно выразить в процентах. Для видеокарт GT его среднее значение приблизительно равно 60.
И, наконец, сравнительный индекс производительности (высчитывается при соотношении индекса производительности карты с максимально достигнутым его значением. Его максимальная величина для карт GT равна 1200 единиц.
Индекс мощности GTX говорит о технологическом превосходстве видоадаптера. Скорость обработки команд для GTX достигает 512 бит, довольно приличное значение по современным меркам.
И КПД, и соотношение цены и качества в процентном представлении может доходить до максимума у современных карт GTX.
Сравнительный индекс производительности у GTX достигает 8000.
Выводы TheDifference.ru
- GTX позволяют обрабатывать за один такт своей работы в 2 или в 4 раза больший объём информации, чем видеокарты GT
- КПД у карт GTX превосходит данный показатель у GT, что делает их более экологичными
- Соотношение цены и качества для GTX более оптимально, чем аналогичное соотношение для GT
- Производительность карт GTX превосходит производительность GT.
В чем отличия и какая видеокарта лучше NVIDIA RTX или GTX?
В чем разница между RTX и GTX?
Долгое время считалось, что новую видеокарту следует использовать с графическим процессором от Nvidia. И если вы так считаете, то вы конечно видели что эти графические процессоры производятся с обозначениями RTX и GTX.
Хотя с 2020 года AMD может предложить несколько действительно очень хороших альтернатив Nvidia со своими видеокартами последнего поколения (более подробно можете узнать NVIDIA vs AMD какой производитель лучше?), можно с уверенностью сказать, что Nvidia по-прежнему является одним из лучших вариантов.
В основном это связано с тем, что она долгое время остается лидером рынка и что подавляющее большинство карт, выпущенных Nvidia за последние пять лет лучше, чем то что ранее предлагала AMD.
Рассмотрим что означает каждый префикс, как и почему он использовался. Поскольку GTX старше, начнем с него.
GeForce GTX
С момента выпуска серии GeForce 7000 в 2005 году Nvidia использовала сокращенное название GTX для обозначения своих лучших видеокарт.
Было бы несправедливо сказать, что эта тенденция продолжалась вплоть до выпуска карт RTX, поскольку Nvidia начала постепенно увеличивать количество карт марки GTX. После выпуска карт серии 900 в 2014 году практически все карты GeForce имели суффикс GTX.
Увидев, что карты из эпохи до серии 900 в 2020 году уже не актуальны, в этом разделе мы обсудим только карты серий 900, 1000 и 1600. Это также хороший момент для того, чтобы разделить это обсуждение, поскольку AMD не была на одном уровне с Nvidia после выпуска карт серии 900 и вплоть до выпуска карт серии 6000 в 2020 году.
Хотя карты серии 1600 технически относятся к картам GTX, интересно отметить, что они были выпущены в 2019 году, через год после того, как в продаже появились первые карты RTX. Таким образом, несмотря на то, что GTX 1080 Ti некоторое время считалась лучшей картой GTX, на самом деле именно GTX 1660 Ti является лучшей картой GTX на рынке сегодня.
Хотя запас производительности не сильно отличается, разница в цене слишком велика, чтобы ее не учитывать. Так что, если вы хотите приобрести карту GTX, то серия GTX 1600 должна лучшим выбором. Однако у этого графического процессора есть довольно существенные недостатки по сравнению с картами RTX.
Трассировка лучей Texel eXtreme (RTX)Прежде всего, карты RTX имеют трассировку лучей, которая представляет собой технологию, отвечающую за создание гиперреалистичных световых эффектов путем моделирования частиц в реальном времени. Одной этой вещи более чем достаточно, чтобы оправдать дополнительную разницу в стоимости.
Кроме того, с выпуском карт серии RTX 3000 доступность трассировки лучей резко возросла.
Читайте: Как выбрать хорошую видеокарту и какую купить?
Читайте: Лучшие видеокарты GeForce RTX 3070
Читайте: Лучшие видеокарты GeForce RTX 3090
Несмотря на дату выпуска в сентябре 2020 года, доступность карт серии RTX 3000 в 2020 году по-прежнему не успевает за спросом покупателей.
Однако в определенный момент, вероятно, в первом квартале 2021 года, мы обязательно увидим, как предложение и спрос выровняются и мы сможем получить более выгодные предложения по новым видеокартам. Именно в этот момент карты серии RTX 3000 будут доступны по той же цене, что и топовые карты серии GTX 1600.
Карты серии RTX 3000 — не первые карты RTX, выпущенные Nvidia поскольку в 2018 году мы увидели серию RTX 2000, которая полностью изменила процесс графики видеоигр.
Если вы планируете покупать видеокарту серии RTX 3000, то RTX 3080, 3090 стоят дорого, поэтому если вы действительно заинтересованы в покупке карты RTX; хотите сэкономить и готовы пойти на компромиссы вы можете рассмотреть покупку RTX 3060 Ti или купить RTX 3070 которые удовлетворят большинство геймеров.
GTX против RTX — что лучше?
Допустим, вы хотите собрать компьютер или изменить графический процессор (GPU) на вашем существующем ПК, поскольку он устарел, вы идете на рынок в поисках нового, и есть два варианта в перед вами — GTX и RTX. Вы не понимаете, что все это имеется в виду, и принимаете неверное решение. Эта статья призвана помочь вам в подобной ситуации и попытается показать основное различие между этими терминами.
Хотя на рынке графических процессоров есть много конкурентов (в основном Nvidia и AMD), мы будем говорить только о процессорах Nvidia, поскольку они являются наиболее распространенными, и к ним относятся термины GTX и RTX.
GTX означает Giga Texel Shader eXtreme и представляет собой вариант под брендом GeForce, принадлежащий Nvidia. Впервые они были представлены в 2008 году в серии 200 под кодовым названием Tesla. Первым продуктом в этой серии был GTX 260 и более дорогой GTX 280. Появление этих карт также повлияло на схему именования, и с момента выпуска этих карт графические процессоры Nvidia использовали схему именования, в которой в качестве префикса использовался GTX / GT, за которым следует их номер модели. С каждым вторым крупным выпуском серии Nvidia меняла свою микроархитектуру, на которой ее карты основаны на i.е. серии 200 и 300 были основаны на архитектуре Tesla, серии 400 и 500 были основаны на архитектуре Fermi и так далее.
Последняя серия GTX 16 состоит из GTX 1650, GTX 1660, GTX 1660Ti и ее аналогов Super. Они основаны на архитектуре Тьюринга и были представлены в 2019 году.
RTX — это сокращение от Ray Tracing Texel eXtreme, а также вариант под GeForce. Карты RTX были специально разработаны для поддержки трассировки лучей в реальном времени, что сделало видео более красивым.Впервые они были анонсированы в 2018 году и используют архитектуру Тьюринга. Эти карты RTX включают RTX 2060, RTX 2070, RTX 2080, RTX 2080Ti и аналоги 2060 и 2070 Super. Эти карты поддерживают расширение DXR в Microsoft DirectX12, а также DLSS (Deep Learning Super Sampling).
Разница между GTX и RTX
GeForce — это марка графических процессоров, разработанная Nvidia, и в ее рамках представлены такие варианты, как GTX и RTX, но до того, как эти термины использовались или существовали, GTX и RTX, такие термины, как GT и GS, были популярны среди графических процессоров. но в настоящее время они предоставляют возможности обработки графики только начального уровня, а для использования приложений с более интенсивной графикой вы должны иметь карты GTX или RTX, которые специально разработаны для приложений с интенсивной графикой, таких как игры, графические движки и многое другое.
Последняя запись в серии GTX включает серию 16XX, но для упрощения и сходства мы рассмотрим различия между GTX 1080Ti (представленной в 2016 году) и RTX 2080 (представленной в 2019 году), поскольку они очень похожи на небольшая разница.
GTX означает Giga Texel Shader eXtreme, а RTX означает Ray Tracing Texel eXtreme, это непростая технология для понимания любым способом, но основное различие между ними заключается в том, что RTX специально разработан для выполнения трассировки лучей в реальном времени. .Проще говоря, он используется для построения траектории света в видеоигре, когда он взаимодействует (отражается или преломляется) с окружающей средой в режиме реального времени. Это приводит к более красивому и потрясающе выглядящему окружению, текстурам и материалам в игре.
Как вы можете видеть на картинке, карты RTX предлагают невероятно детализированные световые эффекты и рендеринг. Но лучший внешний вид не гарантирует лучшей частоты кадров. А также на рынке не так много игр, поддерживающих трассировку лучей. Итак, давайте посмотрим на различия между GTX 1080Ti и RTX 2080.
GTX 1080Ti против RTX 2080
GTX 1080Ti | RTX 2080 | |
---|---|---|
Архитектура графического процессора | Pascal | Turing |
Буфер кадра | 9005X 11 ГБ ГБ GDDR6||
Скорость памяти | 11 Гбит / с | 14 Гбит / с |
Тактовая частота с ускорением | 1582 МГц | 1710 МГц |
Трассировка лучей | Не поддерживается | |
DLSS | Не поддерживается | Поддерживается |
Цена | $ 1000 | $ 700 |
Вот некоторые основные различия между двумя картами.RTX 2080 способен превзойти GTX 1080Ti в играх 4K. 2080 использует более быструю память GDDR6, что обеспечивает лучшее разрешение. Он также предлагает дополнительные улучшения рендеринга, являясь картой архитектуры Тьюринга, а также поддерживает трассировку лучей в реальном времени и DLSS, плюс его цена ниже по сравнению с его аналогом.
Хотя эти вещи могут показаться впечатляющими, нет реальной причины использовать карту RTX, если вы не заботитесь о визуальных эффектах. Поскольку мониторы 4K очень дороги и включение трассировки лучей может снизить частоту кадров, GTX 1080Ti обеспечивает лучшую производительность в некоторых играх по сравнению с RTX 2080.
Вердикт: Nvidia GTX 1080Ti даст лучшую производительность в некоторых играх, но она не стоит дополнительных затрат, а поскольку карты RTX поставляются с дополнительными функциями трассировки лучей и DLSS, это хороший выбор для средних и высоких уровней. конечные ПК, и поскольку все больше и больше игр поддерживают трассировку лучей, это хороший выбор как для настоящего, так и для будущего.
Референции:
Лучшие видеокарты Nvidia GeForce 2020
Теперь, когда Big Navi вышел, лучшим видеокартам Nvidia нужно доказать свое мастерство больше, чем когда-либо прежде.В то время как графические процессоры Nvidia RTX 3000 не были полностью узурпированы AMD, Team Red так хорошо поработали с видеокартами AMD, что их карты представляют собой жизнеспособную и убедительную альтернативу.
Однако Nvidia приняла вызов и подняла планку лучших видеокарт Nvidia с RTX 3080 , RTX 3070 и RTX 3090 . Nvidia не только повысила производительность этих карт, особенно когда дело доходит до трассировки лучей, как показано в в нашем тесте Resident Evil Village , но и снизила цены, чтобы они больше соответствовали ценам Team Red.AMD Radeon RX 6800XT всего на 50 долларов меньше, чем RTX 3080, но 3080 по-прежнему лучше работает в играх 4K. Есть причина, по которой даже сейчас графические процессоры Nvidia по-прежнему составляют большую часть нашего списка лучших видеокарт .
Вдобавок ко всему, карты Nvidia предыдущих поколений теперь более доступны по цене и предоставляют потребителям еще больший выбор. Независимо от того, хотите ли вы использовать трассировку лучей с ограниченным бюджетом с RTX 3060 Ti или новейшим флагманским графическим процессором, таким как RTX 3080 Ti , вы найдете идеальную карту для питания своего ПК в этом списке лучших видеокарт Nvidia.
Краткий обзор лучших видеокарт Nvidia GeForce:
- Nvidia GeForce RTX 3070
- Nvidia GeForce RTX 3080
- Nvidia GeForce RTX 3080 Ti
- Nvidia GeForce RTX 3090
- GeForce GTX
- Nvidia GeForce GTX
- GeForce GTX
- Nvidia
- Nvidia GeForce GTX 1660 Super
- Nvidia GeForce RTX 3060
- EVGA GeForce RTX 2060 XC Black Gaming
- Gigabyte GeForce GTX 1660 OC 6G
- Nvidia Quadro RTX 6000
1.Nvidia GeForce RTX 3070
Одна из лучших видеокарт всех времен
Технические характеристики
Потоковые процессоры: 5,888
Частота ядра: 1,50 ГГц (1,73 ГГц)
Память: 8 ГБ GDDR6
Частота памяти: 14 Гбит / с
Разъемы питания: 1x 8-контактный разъем PCIe (в комплект входит переходник на 1x 12-контактный)
Выходы: HDMI 2.1, 3x DisplayPort 1.4a
Причины для покупки
+ Великолепная производительность + Лучшая видеокарта сегодня + Awesome ray отслеживание производительности
Причины, по которым следует избегать
— Те же завышенные цены, что и 12-контактный разъем питания, требуемый Тьюрингом
Лучшая видеокарта Nvidia на рынке для большинства людей, Nvidia GeForce RTX 3070 обеспечивает отличную производительность — на уровне RTX Даже 2080 Ti — не обходя ни руки, ни ноги.До появления этой карты игры с разрешением 4K были вне бюджета многих людей. Таким образом, RTX 3070 впервые делает его популярным, и это без ущерба для настроек большинства игр. И мы упоминали тот факт, что этот графический процессор невероятно дешев? Дешевая цена плюс игры в разрешении 4K при настройках качества равняются отличной цене, и именно поэтому RTX 3070 возглавляет наш список.
Прочтите полный обзор: Nvidia GeForce RTX 3070
(Изображение предоставлено Future)2.Nvidia GeForce RTX 3080
Лучшая видеокарта, простая в использовании
Технические характеристики
Потоковые процессоры: 8704
Тактовая частота ядра: 1,44 ГГц (1,71 ГГц с ускорением)
Память: 10 ГБ GDDR6X
Тактовая частота : 19 Гбит / с
Разъемы питания: 2x 8-контактный PCIe
Выходы: HDMI 2.1, 3x DisplayPort 1.4a
Причины для покупки
+ Отличная производительность в играх 4K + Низкие температуры + Множество полезных неигровых функций
Причины для избегайте
— Все еще дорого — Нет USB-C в Founders Edition
С Nvidia GeForce RTX 3080 игры в разрешении 4K стали намного доступнее.Раньше на RTX 2080 Ti приходилось выкладывать более 1000 долларов / 1000 фунтов стерлингов. Однако со следующим поколением лучших видеокарт Nvidia GeForce цена на игры в разрешении 4K упала на несколько сотен долларов благодаря RTX 3080. Более того, он может похвастаться одним из крупнейших скачков поколений в истории графических процессоров, обеспечивая Повышение производительности на 50-80% по сравнению с RTX 2080 и на 20-30% по сравнению с RTX 2080 Ti при сохранении той же цены, что и у RTX 2080. Это и абсолютная мощь видеокарты, и отличная цена, если у вас есть немного лишних денег.
Прочтите полный обзор: Nvidia GeForce RTX 3080
(Изображение предоставлено: Future)3. Nvidia GeForce RTX 3080 Ti
Новый лидер Ampere от Nvidia
,240 Stream Процессоры
Частота ядра: 1,37 ГГц (усиление 1,67 ГГц)
Память: 12 ГБ GDDR6X
Частота памяти: 14 Гбит / с
Выходы: HDMI, 3x DisplayPort
Разъемы питания: 2x 8-контактный PCIe
Причины для покупки
+ Превосходная производительность + Красивая видеокарта + Тот же размер, что и у RTX 3080
Причины, которых следует избегать
-Очень дорого-энергоемкий
В городе появился новый чемпион Nvidia, который требует мощности и производительности по еще более доступной цене.Обеспечивая производительность уровня RTX 3090, что само по себе является впечатляющим достижением, долгожданный RTX 3080 Ti поставляется по еще более выгодной цене, что делает всю эту мощь более доступной, чем когда-либо. Он продолжает то, что было начато с RTX 3080 — вывод 4K-игр на массовую арену — с захватывающей дух производительностью 4K со скоростью 60 кадров в секунду, при этом снижая на несколько сотен долларов крутой ценой 3090. На данный момент это лучшая видеокарта Nvidia на рынке, особенно если вы заботитесь о трассировке лучей.
Прочтите полный обзор: Nvidia GeForce RTX 3080 Ti
(Изображение предоставлено в будущем)4. Nvidia GeForce RTX 3090
BFGPU — самая мощная видеокарта, которую вы можете купить сегодня
Технические характеристики
Потоковые процессоры: 10 496
Частота ядра: 1,40 ГГц (ускорение 1,70 ГГц)
Память: 24 ГБ GDDR6X
Частота памяти: 19,5 Гбит / с
Разъемы питания: 2 8-контактных разъема PCIe (переходник на 1 12-контактный в комплекте)
Выходы: HDMI 2.1, 3x DisplayPort 1.4a
Причины для покупки
+ Лучшая производительность графического процессора на рынке + Отличное охлаждение + Настроить и забыть Игры 4K
Причины, которых следует избегать
-Чрезвычайно дорогая-Очень большая карта
Творческие профессионалы будет поражен Nvidia GeForce RTX 3090, особенно с учетом того, насколько она выгодна. Ищете ли вы игровую производительность с разрешением 8K или огромную вычислительную производительность и обильный объем VRAM, необходимые для 3D-рендеринга — не говоря уже о максимальной производительности любой игры, в которую вы играете, с разрешением 4K, этот графический процессор — лучший выбор.Это массивно и невероятно дорого, поэтому приобретайте его только тогда, когда у вас есть лишние деньги, и если вам нужно играть с разрешением 4K или выше. Однако, если вы хотите лучшего из лучших, это карта, которую вам нужно получить.
Прочтите полный обзор: Nvidia GeForce RTX 3090
(Изображение предоставлено Nvidia)5. Nvidia GeForce RTX 3060 Ti
Лучшая видеокарта для большинства людей
Технические характеристики Stream процессоры
9000 : 4,864Частота ядра: 1.41 ГГц (1,67 ГГц в ускоренном режиме)
Память: 8 ГБ GDDR6
Частота памяти: 14 Гбит / с
Разъемы питания: 1x 8-контактный разъем PCIe (адаптер на 1x 12-контактный в комплекте)
Выходы: HDMI 2.1, 3x DisplayPort 1.4a Power
Причины для покупки
+ Превосходная производительность 1080p + Высокая производительность трассировки лучей
Причины, которых следует избегать
-Только производительность 4K начального уровня
Nvidia GeForce RTX 3060 Ti, безусловно, угрожает претензиям AMD на трон ценного графического процессора с соотношением цены и качества.Новинка в линейке RTX 3000, эта видеокарта намного превосходит свой весовой класс, обеспечивая производительность, которая может соперничать с RTX 2080 Super, сохраняя при этом свою цену невероятно доступной для большинства людей. И это с впечатляющей трассировкой лучей. Игры с разрешением 1080p еще никогда не были такими хорошими и доступными.
Прочтите полный обзор: Nvidia GeForce RTX 3060 Ti
Nvidia GeForce GTX 1660 Super — лучшая видеокарта Nvidia для вас, если вы ограничены в средствах.(Изображение предоставлено: Future)6. Nvidia GeForce GTX 1660 Super
1080p и высокая частота кадров
Технические характеристики
Потоковые процессоры: 1408
Частота ядра: 1530 МГц
Память: 6 ГБ GDDR6
Скорость памяти: 14 Гбит / с
Разъемы питания: 1 x 8-контактный
Выходы: 1 x DisplayPort 1.4, 1 x HDMI 2.0, 1 x DVI
Причины для покупки
+ Доступно + Отличная производительность
Причины, которых следует избегать
-Нет лучей tracing
Более дорогие видеокарты в арсенале Nvidia в наши дни привлекают много внимания, что связано со всей трассировкой лучей и суперсэмплингом глубокого обучения.Но если у вас нет кучи денег, чтобы разбрасываться, GTX 1660 Super — лучшая видеокарта Nvidia GeForce для вас. Этот маленький графический процессор отлично справится с любой игрой в разрешении 1080p, а с его скромной ценой он идеально подходит для тех, кому нужна потрясающая производительность с ограниченным бюджетом.
Прочтите полный обзор: Nvidia GeForce GTX 1660 Super
(Изображение предоставлено Nvidia)7. Nvidia GeForce RTX 3060
Достойный соперник среднего уровня
Технические характеристики
9000 потоковых процессоров4: 4
Тактовая частота ядра: 1.41 ГГц (1,67 ГГц в ускоренном режиме)
Память: 8 ГБ GDDR6
Частота памяти: 14 Гбит / с
Выходы: HDMI 2.1, 3x DisplayPort 1.4a Разъемы питания: 1x 8-контактный разъем PCIe (адаптер на 1x 12-контактный в комплекте)
Причины для покупки
+ Хорошая производительность 1080p + Низкое энергопотребление
Причины, которых следует избегать
— Слишком большое отставание от RTX 3060 Ti
Nvidia GeForce RTX 3060 может быть гамбитом Team Green. Его более высокая цена по сравнению с RTX 2060 и его близость к цене RTX 3060 Ti делают его менее привлекательным для потребителей, тем более что последний обеспечивает отличную производительность 1080p.Тем не менее, RTX 3060 обеспечивает огромное улучшение для геймеров 1080p, предлагая прирост производительности на 80-120% по сравнению с GTX 1060. Более того, он также поставляется с технологиями трассировки лучей и DLSS — по сути, это самый дешевый способ получить ваши руки об этих расширенных функциях.
Прочтите полный обзор: Nvidia GeForce RTX 3060
EVGA предлагает недорогую модель EVGA GeForce RTX 2060 XC Black Gaming. (Изображение предоставлено: EVGA)8. EVGA GeForce RTX 2060 XC Black Gaming
Короткое, но мощное
Технические характеристики
Потоковые процессоры: 1,920
Частота ядра: N / A
Тактовая частота ускорения: 1,680 МГц
Память: 6 ГБ GDDR6
Частота памяти: нет
Разъемы питания: 1 x 8-контактный
Выходы: 1 x DisplayPort 1.4, 1 x HDMI 2.0b, 1 x DL-DVI-D
Причины для покупки
+ Короткие и мощные + Несерьезная наценка
Причины, которых следует избегать
— Более толстый радиатор — Меньше выходов
Если вы пытаясь сделать вашу сборку небольшой, чтобы она не занимала много места в вашей комнате, возможно, вы смотрите на сборку Micro ATX. И мини-видеокарты могут быть здесь главным помощником, поскольку видеокарта, как правило, является одним из самых больших компонентов, прикрепленных к материнской плате. У EVGA есть недорогая модель RTX 2060 XC Black Gaming.Он может быть толще, чем ваш типичный вариант с двумя вентиляторами, но эта дополнительная толщина радиатора помогает ему рассеивать тепло с помощью одного вентилятора, а его небольшая длина может помочь ему поместиться в тесных конструкциях.
Gigabyte предлагает GeForce GTX 1660 OC 6G по отличной бюджетной цене, но при этом дает вам возможность разгона. (Изображение предоставлено TechRadar)9. Gigabyte GeForce GTX 1660 OC 6G
Это настолько доступно
Спецификации
Потоковые процессоры: 1408
Частота ядра: 1530 МГц
Память: 6 ГБ GDDR5
Скорость памяти: 8 Гбит / с
Разъемы питания: 1 x 8-контактный
Выходы: 3 x DisplayPort 1.4, 1 x HDMI 2.0
Причины для покупки
+ Самая дешевая карта Turing + Отличная бюджетная производительность
Причины, по которым следует избегать
-Не GDDR6 или GDDR5X
имеют худшую стоимость в расчете на доллар, чем бюджетные карты. И хотя AMD часто попадает в эту золотую середину, Nvidia иногда также не забывает предлагать цену. Лучше, чем GTX 1660, она представлена как нельзя лучше. Gigabyte предлагает GeForce GTX 1660 OC 6G по отличной бюджетной цене, но при этом дает вам возможность разогнаться, так что вы можете наслаждаться разрешением 1080p или даже 1440p с некоторыми измененными настройками.Лучше всего то, что вам не нужно брать ипотечный кредит, чтобы позволить себе эту карту.
Прочтите полный обзор: Gigabyte GeForce GTX 1660 OC 6G
Quadro RTX 6000 от Nvidia загружает 24 ГБ памяти GDDR6 и при этом обладает высокой производительностью. (Изображение предоставлено Nvidia)10. Nvidia Quadro RTX 6000
Творчество стоит дорого
Спецификации
Потоковые процессоры: 4,608
Частота ядра: нет
Память: 24 ГБ GDDR6
Скорость памяти: 14 Гбит / с
Разъемы питания: нет
Выходы: 4 x DisplayPort 1.4, 1 x Virtual Link
Причины для покупки
+ Изобилие видеопамяти + Масштабирование с использованием нескольких графических процессоров
Причины, по которым следует избегать
-Очень дорого
Если вы участвуете в творческих рабочих нагрузках, таких как 3D-дизайн или редактирование видео, вы можете столкнуться с серьезными потребностями в VRAM. В таких случаях может быть полезно иметь видеокарту, которая даст вам массу места для хранения информации в памяти графического процессора, вместо того, чтобы постоянно загружать ее из вашего решения для хранения.Несмотря на высокую цену, Quadro RTX 6000 от Nvidia загружает 24 ГБ памяти GDDR6, а также обладает высокой производительностью. И вы можете комбинировать несколько карт для еще большей производительности.
Обзор лучших предложений на сегодня
NVIDIA RTX против GTX — что купить? [Руководство на 2021 год]
Долгое время считалось, что при покупке новой видеокарты следует использовать Nvidia, и, если вы придерживаетесь его, вы, вероятно, видели и RTX , и GTX с суффиксом .Если вы не знаете, какой из них вам следует купить, вы попали в нужное место.
Несмотря на то, что по состоянию на 2021 год AMD может предложить действительно хорошие альтернативы Nvidia со своими видеокартами последнего поколения, Nvidia по-прежнему является относительно лучшим вариантом. В основном это связано с его долгим сроком службы в качестве лидера рынка и тем, что подавляющее большинство карт, выпущенных Nvidia за последние пять лет, лучше, чем то, что предлагала AMD.
Давайте поговорим о том, что означает каждый префикс, как и почему он использовался. Так как GTX старше, мы начнем с нее.
Экстремальный шейдер Giga Texel (GTX)
С момента выпуска серии GeForce 7000 в 2005 , Nvidia использовала суффикс GTX для обозначения своих лучших карт .
Было бы несправедливо сказать, что эта тенденция сохранялась вплоть до выпуска карт RTX, поскольку Nvidia начала постепенно увеличивать количество карт марки GTX.После выпуска карт серии 900 в 2014 году практически все карты GeForce имели суффикс GTX.
Видя, что карты из эпохи до серии 900 не особо полезны в 2021 году, , мы обсудим только карты серий 900, 1000 и 1600. Также неплохо разделить это обсуждение, поскольку AMD не была на одном уровне с Nvidia после выпуска карт серии 900 и вплоть до выпуска карт серии 6000 в 2020 году.
Хотя карты серии 1600 технически относятся к картам GTX, интересно отметить, что они были выпущены в 2019 году, через год после того, как мы получили первые карты RTX .
Хотя запас производительности не сильно отличается, разница в цене слишком велика, чтобы ее можно было игнорировать. Итак, если вы хотите получить карту GTX, то серия GTX 1600 должна быть легкой задачей. Тем не менее, у него есть несколько довольно существенных недостатков по сравнению с картами RTX.
Трассировка лучей Texel eXtreme (RTX)
Прежде всего, карты RTX имеют трассировку лучей , технологию, которая создает гиперреалистичные световые эффекты путем моделирования частиц в реальном времени.Достаточно ли этой новой функции, чтобы оправдать дополнительные расходы, зависит от конкретного пользователя.
DLSS 2.0 — еще одна невероятная функция, которая значительно увеличивает разрыв между картами RTX и GTX.
Более того, с выпуском карт серии RTX 3000, доступность трассировки лучей для резко возросла.
Ниже представлена техническая демонстрация от Nvidia, демонстрирующая прогресс в технологии трассировки лучей с использованием ее карт.
Несмотря на дату выпуска в сентябре 2020 года, наличие карт серии RTX 3000 в праздничный сезон 2020 года ненадежно.
Однако в определенный момент, вероятно, в кв. 2022 г., мы обязательно увидим, что эти вещи выровняются, и мы сможем получить более легкий доступ к этим картам. Именно в этот момент карты серии RTX 3000 будут доступны по той же цене , что и топовые карты серии GTX 1600, при этом они будут намного лучше.
Карты серии RTX 3000 — не первые выпущенные карты RTX. В 2018 году мы увидели RTX 2000 серии , которые полностью изменили ландшафт графики видеоигр.
Однако эти карты немного дороже , поэтому, если вы действительно заинтересованы в покупке карты RTX (и набрались терпения), вам следует подождать до RTX 3060 Ti или RTX 3070.
Термопаста против смазки против прокладок — в чем разница?
USB-накопитель GeForce GTX от Nvidia — настоящий и редкий продукт, вот как вы можете получить его
Nvidia произвела некоторый ажиотаж в Интернете, когда 31 марта объявила о выпуске GeForce GTX G-Assist, флэш-накопителя USB в форме видеокарты GeForce GTX, который якобы был «наполнен алгоритмами глубокого обучения» для повышения игровая производительность.Это была первоапрельская шутка, но, к удивлению Nvidia, на такой продукт был спрос. Ну, по крайней мере, для флешки.
«Меня даже не интересуют функции, если они реальны. Мне просто нужен USB-накопитель в дизайне GTX», — говорится в одном из самых популярных комментариев к видео Nvidia о GeForce GTX G-Assist.
Ну вот и действительно есть флешка GeForce GTX USB. У него нет каких-либо причудливых алгоритмов, над которыми шутили Nvidia, но само устройство хранения — настоящий продукт.
«Раздел комментариев к видео был загружен призывом к Nvidia сделать флэш-накопитель USB для геймеров. На самом деле, самые популярные / избранные комментарии требовали USB-накопителя GeForce GTX, который соответствовал внешнему виду их любимой графики. карта. Мы услышали крики и доставили «, — сказала Nvidia.
А, но есть загвоздка. Эти USB-накопители встречаются крайне редко — Nvidia произвела всего пару тысяч таких накопителей и будет раздавать их прессе и «влиятельным лицам» на E3, вместе с 1080 зарегистрированными участниками GeForce Experience, которые согласились получать сообщения от Nvidia.
Стильный USB-накопитель ограниченного выпуска вмещает 64 ГБ данных. Если вы не хотите использовать GeForce Experience и / или хотите получать сообщения, есть еще один способ выиграть один, а также другие призы на общую сумму более 100 000 долларов. Игроки, которые используют хэштеги #GameReady и # E3 для обсуждения игр на E3, могут быть выбраны для получения приза. И подписчики канала Nvidia GeForce на YouTube, которые оставят комментарий #GameReady к любому видео с E3 2017, будут заявлены на победу.
Среди других предметов, которые можно забрать, — игровые коды, гарнитуры Astro A40 и A50, видеокарты GeForce GTX 1080 Ti, настройки Oculus Rift и Touch VR, мониторы G-Sync от Acer и Dell и ПК iBuyPower Snowblind Battlebox Ultimate.Кредит Dell Business: Предлагается бизнес-клиентам WebBank, членом FDIC, который определяет квалификацию и условия кредита. Налоги, стоимость доставки и другие сборы являются дополнительными и могут варьироваться. Минимальные ежемесячные платежи превышают 15 долларов США или 3% от нового баланса, указанного в ежемесячной выписке по счетам. Dell и логотип Dell являются товарными знаками Dell Inc.
* Вознаграждения начисляются на вашу учетную запись Dell Rewards Account (доступную через вашу учетную запись Dell.com My Account) обычно в течение 30 рабочих дней после даты отправки вашего заказа; Срок действия вознаграждения истекает через 90 дней (кроме случаев, когда это запрещено законом).Сумма «Текущий баланс вознаграждений» может не отражать самые последние транзакции. Посетите Dell.com My Account, чтобы узнать о наиболее актуальном балансе вознаграждений. Бонусные вознаграждения за отдельные покупки, указанные на сайте dell.com/businessrewards или по телефону 800-456-3355. Общая сумма заработанных вознаграждений не может превышать 2000 долларов в течение 3-месячного периода. Покупки в аутлетах не дают права на вознаграждение. Награды не могут быть получены или применены для ПК в качестве предметов Сервиса. Ускоренная доставка недоступна для некоторых мониторов, аккумуляторов и адаптеров и доступна в континентальной части США (кроме Аляски).Только С. Существуют и другие исключения. Недействительно для торговых посредников и / или онлайн-аукционов. Дополнительную информацию о программе Dell Rewards можно найти на сайте Dell.com/businessrewardsfaq .
* Возврат: 30-дневный период возврата рассчитывается с даты выставления счета. Исключения из стандартной политики возврата Dell по-прежнему применяются, и некоторые продукты не подлежат возврату в любое время. Возврат телеканалов облагается комиссией за пополнение запасов. См. Dell.com/returnpolicy.
* Предложения могут быть изменены, не суммируются с другими предложениями.Лимит 5 единиц на заказ. Применяются налоги, сборы за доставку и другие сборы. Предложение о бесплатной доставке действует только в континентальной части США (за исключением адресов Аляски и почтовых ящиков). Предложение не действует для торговых посредников. Dell оставляет за собой право отменять заказы, связанные с ошибками ценообразования или другими ошибками.
Celeron, Intel, логотип Intel, Intel Atom, Intel Core, Intel Inside, логотип Intel Inside, Intel vPro, Intel Evo, Intel Optane, Intel Xeon Phi, Iris, Itanium, MAX, Pentium и Xeon являются товарными знаками Корпорация Intel или ее дочерние компании.
© 2018 NVIDIA, логотип NVIDIA, GeForce, GeForce RTX, GeForce MAX-Q, GRID, SHIELD, Battery Boost, CUDA, FXAA, GameStream, G-Sync, NVLINK, ShadowPlay, SLI, TXAA, PhysX, GeForce Experience, GeForce NOW, Maxwell, Pascal и Turing являются товарными знаками и / или зарегистрированными товарными знаками NVIDIA Corporation в США и других странах.
Сравнение графических процессоров NVIDIA GeForce и Tesla
Ресурс подготовлен компанией Microway на основе данных, предоставленных NVIDIA и проверенных медиа-источников. Все графические процессоры NVIDIA поддерживают вычисления общего назначения (GPGPU), но не все графические процессоры предлагают одинаковую производительность или поддерживают одни и те же функции. Потребительская линейка графических процессоров GeForce (в частности, GTX Titan) может быть привлекательной для тех, кто запускает приложения с GPU-ускорением. Однако следует помнить о различиях между продуктами. Многие функции доступны только на профессиональных графических процессорах Tesla и Quadro.
FP64 64-битные (двойной точности) вычисления с плавающей запятой
Многие приложения требуют более точных математических расчетов.В этих приложениях данные представлены значениями, которые в два раза больше (с использованием 64 двоичных разрядов вместо 32 битов). Эти большие значения называются двойной точностью (64-битные). Менее точные значения называются одинарной точностью (32 бита). Хотя почти все продукты NVIDIA GPU поддерживают вычисления как с одинарной, так и с двойной точностью, производительность для значений с двойной точностью значительно ниже на большинстве графических процессоров GeForce потребительского уровня. Вот сравнение производительности вычислений с плавающей запятой двойной точности между графическими процессорами GeForce и Tesla / Quadro:
Модель графического процессора NVIDIA | Производительность с плавающей запятой двойной точности (64-битная) |
---|---|
GeForce GTX Titan X Maxwell | до 0.206 терафлопс |
GeForce GTX 1080 Ti | до 0,355 терафлопс |
GeForce Titan Xp | до 0,380 терафлопс |
GeForce Titan V | до 6,875 терафлопс |
GeForce RTX 2080 Ti | оценочно ~ 0,44 терафлопс | Титан RTX | оценочно ~ 0,51 терафлопс |
Тесла К80 | 1.87+ терафлопс |
Тесла P100 * | 4,7 ~ 5,3 терафлопс |
Quadro GP100 | 5,2 терафлопс |
Тесла V100 * | 7 ~ 7,8 терафлопс |
Quadro GV100 | 7,4 терафлопс |
Quadro RTX 6000 и 8000 | ~ 0,5 терафлопс |
Тесла Т4 | оценка ~ 0.25 терафлопс |
NVIDIA A100 | 9,7 терафлопс 19,5 терафлопс FP64 Операции тензорного ядра |
* Точное значение зависит от PCI-Express или SXM2 SKU
FP16 16-битные (половинной точности) вычисления с плавающей запятой
Некоторые приложения не требуют такой высокой точности (например, обучение / вывод нейронной сети и некоторые виды использования высокопроизводительных вычислений). Поддержка операций FP16 половинной точности была введена в поколении графических процессоров Pascal. Ранее это был стандарт для вычислений Deep Learning / AI; однако рабочие нагрузки глубокого обучения перешли к более сложным операциям (см. TensorCores ниже). Хотя все графические процессоры NVIDIA «Pascal» и более поздние поколения поддерживают FP16, производительность на многих графических процессорах, ориентированных на игры, значительно ниже. Вот сравнение производительности вычислений с плавающей запятой половинной точности между графическими процессорами GeForce и Tesla / Quadro:
Модель графического процессора NVIDIA | Производительность с плавающей запятой половинной точности (16 бит) |
---|---|
GeForce GTX Titan X Maxwell | НЕТ |
GeForce GTX 1080 Ti | меньше 0.177 терафлопс |
GeForce Titan Xp | менее 0,190 терафлопс |
GeForce Titan V | ~ 27,5 терафлопс |
GeForce RTX 2080 Ti | 28,5 терафлопс |
Титан RTX | до 32,6 терафлопс ** |
Тесла К80 | НЕТ |
Тесла P100 * | 18.7 ~ 21,2 терафлопс * |
Quadro GP100 | 20,7 терафлопс |
Тесла V100 * | 28 ~ 31,4 терафлопс * |
Quadro GV100 | 29,6 терафлопс |
Quadro RTX 6000 и 8000 | 32,6 терафлопс |
Тесла Т4 | 16,2 терафлопс |
NVIDIA A100 | 78 терафлопс |
* Точное значение зависит от PCI-Express или SXM2 SKU
** Значение оценено и рассчитано на основе теоретических значений FLOPS (тактовая частота x количество ядер)
TensorFLOPS и производительность глубокого обучения
Новый специализированный модуль Tensor Core был представлен с графическими процессорами поколения Volta.Он объединяет умножение двух единиц FP16 (в произведение полной точности) с операцией накопления FP32 — точными операциями, используемыми в вычислениях при глубоком обучении. NVIDIA теперь измеряет графические процессоры с тензорными ядрами с помощью новой метрики производительности глубокого обучения: , новая единица под названием TensorTFLOPS.
Тензорные ядрадоступны только на графических процессорах Volta или новее. Для справки: обеспечивает максимальную известную производительность глубокого обучения при любой точности , если нет значения TensorFLOPS.Мы считаем очень плохой научной методологией сравнивать производительность между разными точностями; тем не менее, мы также признаем желание увидеть, по крайней мере, на порядок сравнение производительности между производительностью глубокого обучения различных поколений графических процессоров.
Модель графического процессора NVIDIA | TensorFLOPS (или максимальная производительность DL) |
---|---|
GeForce GTX Titan X Maxwell | Н / Д TensorTFLOPS ~ 6.1 терафлопс FP32 |
GeForce GTX 1080 Ti | Н / Д TensorTFLOPS ~ 11,3 TFLOPS FP32 |
GeForce Titan Xp | НЕТ TensorTFLOPS ~ 12,1 TFLOPS FP32 |
GeForce Titan V | 110 ТензорTFLOPS |
GeForce RTX 2080 Ti | 56,9 TensorTFLOPS 455,4 TOPS INT4 для вывода |
Титан RTX | 130 TensorTFLOPS 520 TOPS INT4 для вывода |
Тесла К80 | НЕТ TensorTFLOPS 5.6 терафлопс FP32 |
Тесла P100 * | НЕТ TensorTFLOPS 18,7 ~ 21,2 TFLOPS FP16 |
Quadro GP100 | НЕТ TensorTFLOPS 20,7 TFLOPS FP16 |
Тесла V100 * | 112 ~ 125 TensorTFLOPS |
Quadro GV100 | 118,5 TensorTFLOPS |
Quadro RTX 6000 и 8000 | 130.5 TensorTFLOPS 522 TOPS INT4 для вывода |
Тесла Т4 | 65 TensorTFLOPS 260 TOPS INT4 для вывода |
NVIDIA A100 | 312 FP16 TensorTFLOPS 1248 TOPS INT4 для вывода |
* Точное значение зависит от PCI-Express или SXM2 SKU
Обнаружение и исправление ошибок
На графическом процессоре, на котором запущена компьютерная игра, одна ошибка памяти обычно не вызывает проблем (например,g., цвет одного пикселя может быть неправильным для одного кадра). Маловероятно, что пользователь даже узнает об этой проблеме. Однако приложения для технических вычислений полагаются на точность данных, возвращаемых графическим процессором. В некоторых приложениях одна ошибка может привести к тому, что моделирование будет явно неверным. Для других однобитовая ошибка может быть не так легко обнаружена (возвращение неверных результатов, которые кажутся разумными). Графические процессоры Titan не включают возможности исправления ошибок или обнаружения ошибок. Ни графический процессор, ни система не могут предупредить пользователя об ошибках, если они возникнут.Пользователь сам должен обнаруживать ошибки (вызывают ли они сбои приложения, явно неверные данные или слегка неверные данные). Такие проблемы не редкость — наши технические специалисты регулярно сталкиваются с ошибками памяти на игровых графических процессорах потребительского класса. Графические процессоры NVIDIA Tesla могут исправлять однобитовые ошибки, а также обнаруживать и предупреждать о двухразрядных ошибках. В новейших графических процессорах NVIDIA A100, Tesla V100, Tesla T4, Tesla P100 и Quadro GV100 / GP100 поддержка ECC включена в основную память HBM2, а также в файлы регистров, общую память, кэш L1 и кэш L2.
Гарантия и лицензионное соглашение с конечным пользователем
В гарантии NVIDIA на продукты GeForce GPU прямо указано, что продукты GeForce не предназначены для установки на серверах. Использование графических процессоров GeForce в серверной системе приводит к аннулированию гарантии на графический процессор, и пользователь несет ответственность за это. На сайте гарантии производителя NVIDIA:
Продукт с гарантиейпредназначен только для конечных пользователей и не предназначен для использования в центрах обработки данных и / или коммерческих развертываний кластеров графических процессоров («Использование на предприятии»).Любое использование Гарантированного продукта для корпоративного использования аннулирует данную гарантию.
Лицензионное соглашение, включенное в программный драйвер для продуктов NVIDIA GeForce, в частности, гласит:
Без развертывания центра обработки данных. ПРОГРАММНОЕ ОБЕСПЕЧЕНИЕ не лицензировано для развертывания в центре обработки данных, за исключением того, что обработка блокчейна в центре обработки данных разрешена.
Производительность памяти графического процессора
Приложения с интенсивными вычислениями требуют высокопроизводительных вычислительных устройств, но быстрый доступ к данным также имеет решающее значение.Для многих приложений HPC увеличение производительности вычислений не поможет, если также не улучшится производительность памяти. По этой причине графические процессоры Tesla обеспечивают лучшую реальную производительность, чем графические процессоры GeForce:
Модель графического процессора NVIDIA | Пропускная способность памяти графического процессора |
---|---|
GeForce GTX Titan X Maxwell | 336 ГБ / с |
GeForce GTX 1080 Ti | 484 ГБ / с |
GeForce Titan Xp | 548 ГБ / с |
GeForce Titan V | 653 ГБ / с |
GeForce RTX 2080 Ti | 616 ГБ / с |
Титан RTX | 672 ГБ / с |
Тесла К80 | 480 ГБ / с |
Тесла P40 | 346 ГБ / с |
Тесла P100 12 ГБ | 549 ГБ / с |
Тесла P100 16 ГБ | 732 ГБ / с |
Quadro GP100 | 717 ГБ / с |
Tesla V100 16 ГБ / 32 ГБ | 900 ГБ / с |
Quadro GV100 | 870 ГБ / с |
Quadro RTX 6000 и 8000 | 624 ГБ / с |
Тесла Т4 | 320 ГБ / с |
NVIDIA A100 | 1555 ГБ / с для 40 ГБ 2039 ГБ / с для 80 ГБ |
Объем памяти графического процессора
В общем, чем больше памяти в системе, тем быстрее она будет работать.Для некоторых приложений HPC невозможно даже выполнить один запуск, если не хватает памяти. Для других качество и точность результатов будут ухудшаться, если недостаточно памяти. Графические процессоры Tesla предлагают вдвое больше памяти, чем графические процессоры GeForce:
Модель графического процессора NVIDIA | Объем памяти графического процессора |
---|---|
GeForce GTX 1080 Ti | 11 ГБ |
GeForce Titan Xp | 12 ГБ |
GeForce GTX Titan V | 12 ГБ |
GeForce RTX 2080 Ti | 11 ГБ |
Титан RTX | 24 ГБ |
Тесла К80 | 24 ГБ |
Тесла P40 | 24 ГБ |
Тесла P100 | 12 ГБ или 16 ГБ * |
Quadro GP100 | 16 ГБ * |
Тесла V100 | 16 ГБ или 32 ГБ * |
Quadro GV100 | 32 ГБ * |
Quadro RTX 6000 | 24 ГБ * |
Quadro RTX 8000 | 48 ГБ * |
Тесла Т4 | 16 ГБ * |
NVIDIA A100 | 40 или 80 ГБ * |
* обратите внимание, что унифицированная память Tesla / Quadro позволяет графическим процессорам совместно использовать память друг друга для загрузки еще больших наборов данных
PCI-E против NVLink — Пропускная способность между устройствами и хостами
Одно из самых больших потенциальных узких мест — это ожидание передачи данных на графический процессор.При параллельной работе нескольких графических процессоров возникают дополнительные узкие места. Более быстрая передача данных напрямую приводит к повышению производительности приложений. Графические процессоры GeForce подключаются через PCI-Express, теоретическая пиковая пропускная способность которого составляет 16 ГБ / с. Графические процессоры NVIDIA Tesla / Quadro с NVLink могут использовать гораздо более быстрое соединение. NVLink в поколении NVIDIA «Pascal» позволяет каждому графическому процессору обмениваться данными со скоростью до 80 ГБ / с (160 ГБ / с в двух направлениях). NVLink 2.0 в поколении NVIDIA Volta позволяет каждому графическому процессору обмениваться данными со скоростью до 150 ГБ / с (300 ГБ / с в двух направлениях).NVLink 3-го поколения в поколении NVIDIA «Ampere» позволяет каждому графическому процессору обмениваться данными со скоростью до 300 ГБ / с (двунаправленная 600 ГБ / с). Соединения NVLink поддерживаются между графическими процессорами, между графическими процессорами и коммутаторами NVIDIA NVSwitches, а также между процессорами и графическими процессорами на поддерживаемых платформах OpenPOWER.
Поддержка прикладного программного обеспечения
Хотя некоторые программы могут работать на любом графическом процессоре, поддерживающем CUDA, другие разработаны и оптимизированы для профессиональной серии графических процессоров. Большинство профессиональных программных пакетов официально поддерживают только графические процессоры NVIDIA Tesla и Quadro.Использование графического процессора GeForce возможно, но не будет поддерживаться поставщиком программного обеспечения. В других случаях приложения не будут работать вообще при запуске на графическом процессоре GeForce (например, программные продукты от Schrödinger, LLC).
Поддержка операционной системы
Хотя драйверы графического процессора NVIDIA достаточно гибкие, для операционных систем Windows Server нет драйверов GeForce. Графические процессоры GeForce поддерживаются только в Windows 7, Windows 8 и Windows 10. Группам, использующим Windows Server, следует обратить внимание на профессиональные продукты NVIDIA Tesla и Quadro GPU.С другой стороны, драйверы Linux поддерживают все графические процессоры NVIDIA.
Жизненный цикл продукта
Из-за особенностей рынка потребительских графических процессоров продукты GeForce имеют относительно короткий жизненный цикл (обычно не более года между выпуском продукта и окончанием производства). В проектах, для которых требуется более длительный срок службы продукта (например, в проектах, требующих замены деталей через 3+ года после покупки), следует использовать профессиональный графический процессор. Профессиональные продукты NVIDIA Tesla и Quadro GPU имеют расширенный жизненный цикл и долгосрочную поддержку со стороны производителя (включая уведомления об окончании срока службы продукта и возможности последней покупки перед остановкой производства).Кроме того, профессиональные графические процессоры проходят более тщательный процесс тестирования и проверки в процессе производства.
Энергоэффективность
Графические процессоры GeForceпредназначены для использования в потребительских играх и обычно не рассчитаны на энергоэффективность. Напротив, графические процессоры Tesla предназначены для крупномасштабного развертывания, когда важна энергоэффективность. Это делает графические процессоры Tesla лучшим выбором для более крупных установок. Например, GeForce GTX Titan X популярен для настольных рабочих нагрузок с глубоким обучением.При развертывании серверов графический процессор Tesla P40 обеспечивает соответствующую производительность и вдвое больший объем памяти. Однако при установке рядом Tesla потребляет меньше энергии и выделяет меньше тепла.
Двигатели DMA
Механизм прямого доступа к памяти (DMA) графического процессора обеспечивает быструю передачу данных между системной памятью и памятью графического процессора. Поскольку такие передачи являются частью любого реального приложения, производительность жизненно важна для ускорения графического процессора. Медленная передача заставляет ядра графического процессора бездействовать, пока данные не поступят в память графического процессора.Точно так же медленный возврат заставляет ЦП ждать, пока ГП не завершит возврат результатов.
Продукты GeForce оснащены одним механизмом DMA Engine * , который может передавать данные в одном направлении за раз. Если данные загружаются в графический процессор, любые результаты, вычисленные графическим процессором, не могут быть возвращены, пока загрузка не будет завершена. Точно так же результаты, возвращаемые графическим процессором, будут блокировать любые новые данные, которые необходимо загрузить на графический процессор. Продукты Tesla GPU оснащены двумя модулями прямого доступа к памяти , чтобы облегчить это узкое место.Данные могут передаваться в GPU и из GPU одновременно.
* одна модель графического процессора GeForce, GeForce GTX Titan X, оснащена двумя модулями DMA
Графический процессор Direct RDMA
Технология NVIDIA GPU-Direct позволяет значительно повысить скорость передачи данных между графическими процессорами. Различные возможности подпадают под действие GPU-Direct, но возможность RDMA обещает наибольший прирост производительности. Традиционно для передачи данных между графическими процессорами кластера требовалось 3 копии памяти (один раз в системную память ГП, один раз в системную память ЦП и один раз в память драйвера InfiniBand).GPU Direct RDMA удаляет копии системной памяти, позволяя графическому процессору отправлять данные напрямую через InfiniBand в удаленную систему. На практике это привело к уменьшению задержки до 67% и увеличению пропускной способности на 430% для сообщений MPI небольшого размера [1]. В версии CUDA 8.0 NVIDIA представила GPU Direct RDMA ASYNC , который позволяет графическому процессору инициировать передачу RDMA без какого-либо взаимодействия с процессором.
Графические процессоры GeForce не поддерживают RDMA с прямым подключением к графическому процессору. Хотя вызовы MPI по-прежнему будут успешно возвращаться, передачи будут выполняться по стандартным путям копирования в память.Единственная форма GPU-Direct, которая поддерживается на картах GeForce, — это GPU Direct Peer-to-Peer (P2P). Это обеспечивает быструю передачу данных в пределах одного компьютера, но ничего не делает для приложений, работающих на нескольких серверах / вычислительных узлах. Графические процессоры Tesla полностью поддерживают GPU Direct RDMA и различные другие возможности GPU Direct . Они являются основной целью для этих возможностей и поэтому наиболее часто используются в полевых условиях.
Hyper-Q
Прокси-серверHyper-Q для потоков MPI и CUDA позволяет нескольким потокам или процессам ЦП запускать работу на одном графическом процессоре.Это особенно важно для существующих параллельных приложений, написанных с помощью MPI, поскольку эти коды были разработаны для использования преимуществ нескольких ядер ЦП. Разрешение графическому процессору принимать работу от каждого из потоков MPI, работающих в системе, может предложить потенциально значительный прирост производительности. Это также может уменьшить объем перестройки исходного кода, необходимый для добавления ускорения графического процессора к существующему приложению. Однако единственная форма Hyper-Q, которая поддерживается графическими процессорами GeForce, — это Hyper-Q для потоков CUDA.Это позволяет GeForce эффективно принимать и запускать параллельные вычисления от отдельных ядер ЦП, но приложения, работающие на нескольких компьютерах, не смогут эффективно запускать работу на графическом процессоре.
Возможности мониторинга и управления работоспособностью графического процессора
Многие возможности мониторинга работоспособности и управления графическими процессорами (которые жизненно важны для поддержки нескольких систем графических процессоров) поддерживаются только профессиональными графическими процессорами Tesla. Функции здоровья, которые не поддерживаются графическими процессорами GeForce, включают:
- NVML / nvidia-smi для мониторинга и управления состоянием и возможностями каждого графического процессора.Это обеспечивает поддержку графического процессора из ряда сторонних приложений и инструментов, таких как Ganglia. Также доступны привязки Perl и Python.
- OOB (внеполосный мониторинг через IPMI) позволяет системе отслеживать состояние графического процессора, регулировать скорость вращения вентиляторов для надлежащего охлаждения устройств и отправлять предупреждения при обнаружении проблемы
- InfoROM (постоянные данные конфигурации и состояния) предоставляет системе дополнительные данные о каждом графическом процессоре
- Утилита NVHealthmon предоставляет администраторам кластера готовый к использованию инструмент состояния работоспособности графического процессора
- TCC позволяет специально настраивать графические процессоры для режима только отображения или только вычислений
- ECC (обнаружение и исправление ошибок памяти)
Инструменты кластера полагаются на возможности, предоставляемые NVIDIA NVML.Примерно 60% возможностей недоступны в GeForce — эта таблица предлагает более подробное сравнение функций NVML, поддерживаемых в графических процессорах Tesla и GeForce:
Элемент | тесла | Geforce |
---|---|---|
Название продукта | да | да |
Показать количество графических процессоров | да | да |
Поколение PCI-Express (например, 2. | ||
Поддержка обнаружения и исправления ошибок ECC | да | – |
Список удаленных страниц | да | – |
Текущая потребляемая мощность | да | – |
Установить предел потребляемой мощности | да | – |
Текущая тактовая частота графического процессора | да | – |
Текущая тактовая частота памяти | да | – |
Показать доступные тактовые частоты | да | – |
Показать доступные скорости памяти | да | – |
Установить ускорение графического процессора (частота ядра и частота памяти) | да | – |
Показать текущие вычислительные процессы | да | – |
Серийный номер карты | да | – |
Изображение и объекты InfoROM | да | – |
Возможности учета (использование ресурсов на процесс) | да | – |
Идентификаторы PCI-Express | да | да |
Версия драйвера NVIDIA | да | да |
NVIDIA VBIOS версии | да | да |
* Измерение температуры недоступно для системной платформы, что означает, что скорость вращения вентилятора не может быть изменена.GPU Boost отключен во время вычислений с двойной точностью. Кроме того, в определенных сценариях тактовая частота GeForce будет автоматически снижена.
Ускорение графического процессора
Все последние продукты NVIDIA GPU поддерживают GPU Boost, но их реализация зависит от предполагаемого сценария использования. Карты GeForce созданы для интерактивного использования на рабочем столе и для игр. Графические процессоры Tesla созданы для интенсивного постоянного анализа чисел, при этом стабильность и надежность имеют первостепенное значение.Учитывая различия между этими двумя вариантами использования, GPU Boost работает на Tesla иначе, чем на GeForce.
Как работает GPU Boost на GeForce
В случае Geforce видеокарта автоматически определяет тактовую частоту и напряжение в зависимости от температуры графического процессора. Температура является подходящей независимой переменной, поскольку тепловыделение влияет на скорость вращения вентилятора. Для игр с менее насыщенной графикой или для обычного настольного использования конечный пользователь может наслаждаться более тихой работой на компьютере.Однако при игре в игры, требующие серьезных вычислений на GPU, GPU Boost автоматически увеличивает напряжение и тактовую частоту (в дополнение к увеличению шума).
Как работает GPU Boost на Tesla
С другой стороны, уровень разгона графического процессораTesla также может определяться напряжением и температурой, но не всегда так.
При желании, boost может указывать системным администратором или пользователем вычислений — желаемая тактовая частота может быть установлена на определенную частоту.Вместо того, чтобы поддерживать тактовую частоту на различных уровнях, желаемая тактовая частота может статически поддерживаться, пока не будет достигнут порог энергопотребления (TDP). Это важное соображение, потому что ускорители в среде высокопроизводительных вычислений часто должны быть синхронизированы друг с другом. Дополнительный детерминированный аспект ускорения графического процессора Tesla позволяет системным администраторам определять оптимальные тактовые частоты и фиксировать их для всех графических процессоров.
Для приложений, требующих дополнительной производительности и детерминизма, самые последние графические процессоры Tesla могут быть настроены для Auto Boost в пределах групп синхронного повышения .При включенном автоматическом ускорении с группами каждая группа графических процессоров будет увеличивать тактовую частоту, когда позволяет запас. Группа будет синхронизировать часы друг с другом, чтобы обеспечить одинаковую производительность в группе. Группы могут быть установлены в NVIDIA DCGM tools
1. Поддержка графических процессоров с GPUDirect RDMA в MVAPICh3 от D.K. Панда (Государственный университет Огайо)
Обзор Nvidia GTX 1050 | Надежные обзоры
Лучший недорогой графический процессор для киберспортивных игроков.
Плюсы
- Отличные результаты в киберспорте
- Может играть в игры AAA при средних настройках
- Доступно много компактных карт
- Очень низкое энергопотребление
Минусы
- Дороже конкурентов
- 2 ГБ памяти ограничивают будущий потенциал
Основные характеристики
- Обзорная цена: 110 фунтов стерлингов.00
- 640 ядер CUDA
- 2 ГБ памяти GDDR5
- Частота ядра 1,354 МГц
- Тактовая частота с повышением частоты 1,455 МГц
- TDP: 75 Вт (питание от шины PCI-E)
Что такое Nvidia GTX 1050?
Хотите построить игровую установку за как можно меньше денег? Nvidia GTX 1050 — самая дешевая видеокарта поколения Pascal из доступных, она способна играть в некоторые из самых популярных киберспортивных игр в формате Full HD.К таким играм относятся Overwatch, CounterStrike: Global Offensive и Fortnite.
Но эта карта предназначена не только для киберспорта: как и конкурирующая с ней AMD Radeon RX 460, этот графический процессор способен воспроизводить новейшие игры в формате Full HD, если вы хотите немного изменить настройки. После небольшой настройки он может даже запускать подобные Shadow of the Tomb Raider и Civilization VI.
Спасибо Overclockers UK за поставку этого обзорного устройства
В первую очередь, это графический процессор, который лучше всего подходит для ультрабюджетных ПК или в качестве обновления гораздо более старого графического процессора, не имеющего разъема для внешнего питания.Благодаря низкому энергопотреблению вы также найдете Nvidia GTX 1050 в фантастических универсальных ноутбуках, таких как Dell XPS 15, и недорогих игровых ноутбуках, таких как Dell G3 15.
Модель, представленная на обзоре, является интерпретацией EVGA. , который продается по цене около 110 фунтов стерлингов. Это в значительной степени обычная скорость для GTX 1050 и довольно репрезентативная для рынка 1050 в целом. Хотя в этом обзоре будет проведено сравнение с его ближайшим конкурентом, RX 460, они находятся в немного разных категориях.
Связано: Лучшие видеокарты
Nvidia GTX 1050 — Технические характеристики и дизайн
GTX 1050 использует сверхэффективную архитектуру Pascal от Nvidia, используемую в 1050 Ti, 1060, 1070 и лучшем в своем классе GTX 1080. Если бы эта битва была выиграна только за счет энергоэффективности, здесь не было бы соревнований.
Но это еще не все. Это самый урезанный чип Pascal, содержащий всего 640 ядер CUDA. Этот недостаток ядер компенсируется высокой тактовой частотой разгона в 1455 МГц в этой конкретной модели.Он также оснащен 2 ГБ памяти GDDR5.
EVGA выбрала компактный дизайн: длина карты составляет всего 145 мм. Это означает, что он подойдет для самых компактных игровых устройств, хотя, поскольку он имеет двойную высоту, вам необходимо учитывать зазор под разъемом PCI-E материнской платы.
Связанный: Лучшие предложения видеокарт
Он охлаждается небольшим радиатором и одним вентилятором и поставляется в довольно простом, но стильном черно-сером пластиковом кожухе EVGA.
Это одна из областей, в которой Nvidia GTX 1050 имеет значительное преимущество перед RX 460: на рынке гораздо больше компактных GTX 1050, а маленькие RX 460 только начинают появляться.
Вы получаете разъемы DisplayPort 1.4, DVI-D и HDMI 2.0b, соответствующие RX 460 по выходам. Разъемов питания ATX не обнаружено: эта карта полностью питается от шины PCI-E.
Nvidia GTX 1050 — тесты производительности
Я протестировал GTX 1050 на нашей обычной тестовой машине, на борту которой есть следующие компоненты:
Имейте в виду, что если вы добавляете Nvidia GTX 1050 в гораздо более старую систему с более медленной памятью, меньшим количеством ядер обработки и более медленным хранилищем — я полагаю, что именно здесь окажется много GTX 1050 — ваши результаты могут значительно отличаться, особенно в тестируемых здесь играх ААА.
Здесь я отказался от обычного набора тестов TrustedReviews и сосредоточился на типах игр, для которых предназначена GTX 1050. Я заменил Tomb Raider и GTA V на Overwatch и CS: GO, хотя сохранил и Hitman, и Middle-earth: Shadow of Mordor, чтобы узнать, насколько способна эта карта при игре в игры AAA на средних настройках.
Результаты здесь несопоставимы с другими нашими тестами графического процессора (кроме RX 460), которые проводились при настройках High и Ultra.
CounterStrike: Глобальное наступление
CS: GO, безусловно, самая простая игра из тестируемых. Это динамичный шутер, в который играют профессионалы киберспорта на высшем уровне. Его может воспроизводить практически любая видеокарта, даже встроенная графика Intel HD Graphics. Тем не менее, в такого рода играх больше кадров в секунду всегда лучше, особенно если у вас высококачественный монитор с очень высокой частотой обновления.
Я установил для CS: GO значение High при Full HD, без ограничений по частоте кадров, чтобы посмотреть, насколько далеко продвинется GTX 1050.
Неудивительно, что GTX 1050 в этом тесте показала невероятные 256 кадров в секунду, достигнув результата на 19% выше, чем у более дешевой RX 460.
Наблюдение
Более сложный, чем CS: GO, но неизменно популярный, Overwatch — еще одна игра в жанре FPS, наполненная эффектами частиц и освещения. Я включил High, чтобы увидеть, чего можно ожидать от Full HD.
Опять же, GTX 1050 легко справилась с Overwatch, достигнув средней частоты кадров 112 кадров в секунду.Это на 28% быстрее, чем у RX 460 при идентичных настройках. Имейте в виду, что Overwatch очень хорош в использовании настроек графики, которые идеально подходят вашему графическому процессору, поэтому владельцам RX 460 не обязательно будет хуже.
Hitman
Этот графический процессор не предназначен для игр класса AAA, но зачем ограничивать себя? Hitman — одна из самых сложных игр со встроенным тестом производительности, так что это должно подтолкнуть GTX 1050 к ее пределам. Я запустил тест при средних настройках, чтобы не повредить 2 ГБ памяти.Тест проводился в режиме Direct3D 12, который, как правило, в пользу AMD.
Результат составил 46 кадров в секунду, что примерно на 12% ниже, чем у RX 460. Однако это не было неожиданностью. Запуск GTX 1050 в режиме DirectX 11 позволил добиться гораздо более высоких кадров в секунду, намного выше 55 кадров в секунду.
Средиземье: Тени Мордора
Последний тест — еще одна, немного более старая версия AAA, чтобы проверить способность графического процессора справляться со множеством взрывов и погодных эффектов. Он был запущен на средних настройках в Full HD.
В этом последнем игровом тесте GTX 1050 набрала 79,1 кадра в секунду, что всего на 9% быстрее, чем RX 460, которая значительно сократила разрыв в этой области.
3DMark: Fire Strike Extreme
Я также провел синтетический тест, который выявил серьезное несоответствие между GTX 1050 и RX 460. Графический процессор Nvidia показал результат на 3201 — на 28% быстрее, чем RX 460. Этот результат является выбросом и не должен влиять на ваш решение о покупке, но, тем не менее, это показывает, что когда обе карты выходят за пределы своих возможностей, GTX 1050, кажется, справляется с собой лучше.
Потребляемая мощность
Потребляемая мощность — это круто. GTX 1050 имеет крошечный TDP (расчетная тепловая мощность) всего 75 Вт, что означает, что он получает всю свою мощность от вашей материнской платы. На борту нашего высококлассного разогнанного ПК во время теста Hitman вся система потребляла всего 150 Вт; это на 61 Вт меньше, чем у RX 460.
Этот TDP 75 Вт также такой же, как у GTX 1050 Ti, который обойдется вам примерно в 140 фунтов стерлингов, но при этом производительность будет намного лучше для игр AAA.
Стоит ли покупать Nvidia GTX 1050?
GTX 1050 — это лучший пример того, как архитектура Nvida Pascal находит хорошее применение.Возможно, ему не удастся получить невероятные результаты тестов, но в качестве компонента замены старого или сломанного графического процессора он фантастический; и вам не потребуется обновлять блок питания.
Учитывая, что текущая цена на GTX 1050 составляет около 110 фунтов стерлингов, вашим ближайшим конкурентом здесь является RX 460, который продается по цене от 90 до 110 фунтов стерлингов. Обычно я просто говорю: купите самый дорогой графический процессор, который вы можете себе позволить, но я думаю, что в этом случае повышение производительности, предлагаемое GTX 1050, перевешивает его более высокую цену.
Если вы можете наскрести лишние 20 фунтов стерлингов, это того стоит.