чем отличаются видеокарты gtx
Чем RTX видеокарты отличаются от GTX и что лучше
На выставке Gamescom, летом 2018 года, компания NVIDIA представила новую линейку видеокарт под названием RTX. Новинка достаточно быстро поступила в продажу и стала доступна для геймеров в начале осени 2018-го. В данной статье мы расскажем о том, что такое RTX, чем линейка RTX отличается от GTX и что лучше выбрать, если вы решили обновить свою видеокарту.
Что такое RTX
RTX – это новая серия видеокарт от компании NVIDIA, которая пришла на замену старой серии GTX. Видеокарты RTX построены на базе новой микроархитектуры Turing, которая включает в себя отдельные модули для аппаратной трассировки лучей в реальном времени (RT-ядра) и работы с искусственным интеллектом и глубинным обучением (тензорные ядра).
На данный момент серии RTX и GTX выпускаются параллельно. Сейчас к серии RTX относятся видеокарты среднего и высшего ценового диапазона, это:
А к серии GTX относятся бюджетные видеокарты, это:
В дальнейшем, скорее всего, компания NVIDIA откажется от производства видеокарт из серии GTX и полностью переключится на RTX.
Чем RTX отличается от GTX
Линейка видеокарт NVIDIA RTX имеет два основных отличия от серии видеокарт GTX, это:
RT-ядра и тензорные ядра – это отдельные модули внутри графического чипа видеокарты, и они присутствуют только на новых RTX моделях. На видеокартах серии GTX таких модулей нет.
Фактически, наличие этих ядер — это небольшой прорыв на рынке графических ускорителей, поскольку до этого подобного не было ни у NVIDIA, ни у их конкурента AMD. А в будущем, вероятней всего, наличие подобных модулей станет стандартом для всех видеокарт от обоих производителей. Косвенно это подтверждает тот факт, что поддержку аппаратного ускорения трассировки лучей уже анонсировали для игровых консолей следующего поколения.
Наличие RT и тензорных ядер открывает целый ряд новых возможностей. Так RT-ядра позволяют значительно ускорить вычисления, связанные с трассировкой лучей. Это позволит разработчикам игр создавать более реалистичное и динамичное освещение, которое сможет быстро меняться в зависимости от игровых событий. Также трассировка лучей, выполняемая ядрами RT, может применяться для создания таких эффектов, как отражения, преломления, тени и ограничение глубины резкости.
Нужно отметить, что трассировку лучшей можно использовать и на видеокартах без RT-ядер. NVIDIA даже выпустила обновление для драйверов, которое открывает эту возможность на видеокартах GTX 10-поколения. Но, без наличия RT-ядер трассировка отнимает слишком много производительности основных модулей графического процессора из-за чего сильно проседает FPS. Играть в таком формате вряд ли возможно, это скорее демонстрация самой технологии.
В свою очередь, тензорные ядра предназначены для ускорения вычислений, связанных с искусственным интеллектом и глубинным обучением. При чем это не обязательно какие-то прикладные или научные задачи. Тензорные ядра могут использоваться и в компьютерных играх, например, NVIDIA применила данную технологию сглаживания кадров. Это решение получило название DLSS. С его помощью можно значительно улучшить качество изображения в играх, при этом не расходуя вычислительную мощность основных модулей графического процессора видеокарты.
Кроме этого, RTX имеют ряд более мелких изменений, которые также выгодно отличают их от видеокарт прошлых поколений. Например, видеокарты RTX получили:
Что лучше GTX или RTX
При выборе видеокарты может возникнуть вопрос, что лучше GTX или RTX. Ответ здесь достаточно очевиден, видеокарты RTX лучше GTX практически во всем и обладают уникальными возможностями, которые не доступны для GTX. Поэтому если есть возможность, то лучше покупать именно RTX.
Но, нужно учесть, что GeForce RTX 2060, которая является самой доступной во всей линейке RTX, справляется с трассировкой лучшей достаточно плохо. При включении этой функции FPS сильно проседает и играть становится не комфортно, даже в разрешении FullHD. Поэтому для полноценного игрового опыта с трассировкой лучей вам понадобиться GeForce RTX 2070 или даже более мощная видеокарта.
Создатель сайта comp-security.net, автор более 2000 статей о ремонте компьютеров, работе с программами, настройке операционных систем.
Задайте вопрос в комментариях под статьей или на странице «Задать вопрос» и вы обязательно получите ответ.
NVIDIA RTX vs GTX: в чем разница?
Если вы не в курсе последних новостей в мире аппаратного оборудования или только недавно заинтересовались сборкой своего ПК и думаете о приобретении видеокарты от Nvidia, то, несомненно, заметили, что упомянутая компания предлагает два разных на первый взгляд типа графических процессоров: GTX и RTX.
Итак, что же это все означает, в чем разница между моделями GTX и RTX, и какую из них стоит выбрать? Мы ответим на все эти вопросы, так что рекомендуем прочитать статью до конца!
Основы
Все игровые графические процессоры Nvidia принадлежат их собственному бренду GeForce, который появился в 1999 году с выпуском GeForce 256. С тех пор компания выпустила сотни различных видеокарт, а кульминацией стали три последних модельных ряда: серия GeForce 20, выпущенная в 2018 году, серия GeForce 16, выпущенная в 2019 году, и серия GeForce 30, выпущенная в 2020 году.
На сегодняшний день серии GeForce 20 и GeForce 30 состоят исключительно из графических процессоров RTX, а серия GeForce 16 – из видеокарт GTX. Итак, что же означают все эти буквы? На самом деле ни GTX, ни RTX, не являются аббревиатурами и не имеют конкретного значения как такового. Они существуют просто ради маркетинговых целей.
Nvidia использовала несколько похожих двух- и трехбуквенных обозначений, чтобы предоставить пользователям общее представление о том, какую производительность может предложить каждый графический процессор. Например, производители использовали такие обозначения, как GT, GTS, GTX, а также многие другие на протяжении многих лет, однако лишь GTX и новая RTX «выжили» до наших дней.
GeForce 20 / 30 против GeForce 16
Прежде всего мы должны отметить, что серии 20 и 16, то есть последние графические процессоры RTX и GTX, основаны на одной и той же микроархитектуре видеокарты Turing, которую Nvidia впервые представила в 2018 году. В свою очередь, серия 30 основана на новейшей архитектуре Ampere.
Однако, несмотря на то, что GeForce 20 и 16 основаны на одной архитектуре, 20-я вышла первой. После запуска в 2018 году, производители хотели сосредоточиться на расширенных функциях, которые могла предложить новая архитектура. Линейка состояла из графических процессоров верхней части среднего сегмента и high-end видеокарт, которые и могли продемонстрировать указанные функции, и это были первые модели под обозначением RTX.
Между тем, серия 16 появилась годом позже, потому что Nvidia нужно было предложить несколько более экономичных решений для тех, кто не мог позволить себе потратить больше 400 долларов на видеокарту. Эти графические процессоры, однако, не имели вышеупомянутых расширенных функций, поэтому сохранили старое обозначение GTX.
Тем не менее в настоящее время графические процессоры GTX действительно слабее, чем RTX, но так и было задумано самими разработчиками. Название RTX было введено в основном ради маркетинга, чтобы новые графические процессоры воспринимались как большой шаг вперед, как нечто действительно новое, а само обозначение было вдохновлено главной новой функцией, представленной в серии 20: трассировка лучей в реальном времени.
Сейчас трассировка лучей в реальном времени стала возможной благодаря RT-ядрам, которые встречаются только в сериях 20 и 30 и отсутствуют в моделях серии 16. Вдобавок ко всему существуют тензорные ядра, которые обеспечивают ускорение ИИ, а также повышают производительность трассировки лучей и обеспечивают суперсэмплинг глубокого обучения в играх.
Если убрать эти две ключевые характеристики из общей картины, видеокарты GTX 16 серии и графические процессоры RTX серий 20 и 30 не так уж сильно отличаются. Очевидно, что более дорогие модели RTX имеют больше транзисторов, больше ядер, лучшую память и многое другое, из-за чего они способны предложить лучшую общую производительность, чем более дешевые аналоги в лице GTX. Однако они не обязательно обеспечивают лучшее соотношение цены и качества.
Итак, что это за новые функции и стоит ли покупать графический процессор RTX?
Что такое RT ядра?
Как упоминалось выше, RT ядра представляют собой ядра графического процессора, предназначенные исключительно для трассировки лучей в реальном времени.
Так что же делает трассировка лучей с графикой видеоиграх? Технология позволяет добиться более реалистичного освещения и отражений. Это достигается путем отслеживания обратной траектории распространения луча, что позволяет графическому процессору выдавать гораздо более реалистичное моделирование взаимодействия света с окружающей средой. Рейтрейсинг по-прежнему возможен даже на графических процессорах без RT ядер, но в таком случае производительность просто ужасная, даже на флагманских моделях типа GTX 1080 Ti.
Говоря о производительности, трассировка лучей в реальном времени на самом деле сильно влияет на производительность даже при использовании с графическими процессорами RTX, что неизбежно приводит к вопросу — стоит ли вообще использовать данную технологию?
По состоянию на 2020 год чуть множество игр поддерживают трассировку лучей.
Видео выше показывает, как трассировка лучей выглядит в игре Control (2019): графические улучшения, обеспечиваемые трассировкой лучей, значительны. Однако функция сокращает показатель FPS вдвое, со стабильных 60 до 30, и это с высокопроизводительной видеокартой RTX 2070 Super!
Трассировка лучей в реальном времени — это важное достижение в области гейминга, которое в ближайшие годы значительно улучшит графику видеоигр. Тем не менее, на прямо сейчас аппаратное обеспечение недостаточно мощное, и разработчики еще не в полной мере используют потенциал функции.
Что такое тензорные ядра?
Несмотря на то, что трассировка лучей является наиболее «продаваемой» функцией графических процессоров RTX серий 20 и 30, архитектура Turing также представила еще одну важную новую функцию в основной линейке GeForce — расширенные возможности глубокого обучения, которые стали возможны с помощью специальных тензорных ядер.
Эти ядра были представлены в 2017 году в графических процессорах Nvidia Volta, однако игровые видеокарты не были основаны на этой архитектуре. Таким образом, тензорные ядра, присутствующие в моделях Turing, на самом деле являются тензорными ядрами второго поколения. Касаемо игр, то у глубокого обучения есть одно основное применение: суперсэмплинг глубокого обучения, сокращенно DLSS, который представляет собой совершенно новый метод сглаживания. Итак, как именно работает DLSS и лучше ли он, чем обычные методы сглаживания?
DLSS использует модели глубокого обучения для генерации деталей и масштабирования изображения до более высокого разрешения, тем самым делая его более резким и уменьшая искажения. Вышеупомянутые модели глубокого обучения создаются на суперкомпьютерах Nvidia, а затем приводятся в действие тензорными ядрами видеокарты.
Суперсэмплинг обеспечивает более четкое изображение, но при этом требует меньших затрат на оборудование, чем большинство других методов сглаживания. Более того, технология может заметно улучшить производительность при включенной трассировке лучей, что хорошо, учитывая, насколько высока производительность данной функции.
Однако, как и в случае с трассировкой лучей, список игр, которые в настоящее время поддерживают DLSS, к сожалению, довольно мал. Впрочем, это наверняка изменится в будущем.
Заключение
Что ж, пришло время подвести итоги: обозначение RTX было введено Nvidia в основном ради маркетинговых целей, из-за чего графические процессоры на архитектуре Turing 20-й серии выглядели как более крупное обновление, чем они есть на самом деле.
Конечно, RTX-модели оснащены крутыми новыми элементами, которые полностью раскроют свой потенциал в обозримом будущем, а что касается чистой производительности, новейшие видеокарты на архитектуре Ampere достаточно сильно опережают старые графические процессоры GTX на базе Pascal, которые продавались по примерно той же цене.
Принимая во внимание все вышесказанное, мы бы не сказали, что графические процессоры RTX стоит покупать только ради трассировки лучей и DLSS, поскольку производительность всегда должна быть на первом месте, особенно если вы хотите получить максимальную отдачу от своих денег. С другой стороны, эти технологии будут развиваться в ближайшем будущем, и через пару лет графические чипы GTX окажутся откровенно устаревшими. Если вы собираетесь приобрести новую видеокарту, то, возможно, стоит ознакомиться с данной статьей, где мы перечислили лучшие видеокарты, доступные на рынке прямо сейчас.
Считаю что трассировка лучей является не столь революционной функцией ради которой стоит обновляться на новое поколение, сколько её метод оптимизации под названием DLSS. Уже который год в сети плавают слухи что у NVIDIA в рукаве был припасён ход, позволяющий сделать реальный прогресс в плане оптимизации — но зная насколько сильно компания погрязла в маркетинге, ждать от них такого подарка «бесплатно» было бы максимально глупо, и по факту так и получилось.
Трассировка же стала тем самым триггером, который заставил их применить этот козырь, и как мы видим по тестам 2.0 версии — результаты действительно впечатляющие, а уж если и вовсе отключить Трассировку, то мы как раз и получаем тот самый долгожданный буст фпс в 2 раза, который к тому же ещё и умудряется «улучшать» картинку из натива… Просто фантастика.
У них в планах сейчас вообще стоит задача добиться включения поддержки DLSS по умолчанию на уровне настройки видеоадаптера через панель нвидии, но это ориентировочно должно быть в версии 3.0, а пока что только вчера вышло обновление под номером 2.1 которое добавляет режим «Ультра производительности» для Death Stranding — кстати есть ли по этому поводу тесты?)
Чего ждать в будущем? Первое время конечно всё будет сказочно — буст фпс в 2 раза это действительно круто, и только совсем глупые люди не будут таким пользоваться, особенно на самых бюджетных версиях RTX серии в виде 2060, которые были слегка быстрее и чутка дороже тех же 1660 версий, но по факту дадут двойной разрыв в производительности с ними.
Но почему же это чисто маркетинговая технология, которая по факту может работать на всех видеокартах, но нвидиа заботливо двигает её только под новые серии? Да потому что у неё есть аналог, и точно так же как и Crytek сделали свой софтовый вариант трассировки, AMD сделали на уровне софта аналог под названием FidelityFX. Естественно она получилась хуже, но тот факт что это всё базируется чисто на программном уровне — а не с фейковым использованием каких то там специальных ядер, намекает нам на то что кое кого сильно обманывают, но если всё таки довести до ума данную функцию и включить её поддержку на программном уровне — то AMD будет иметь серьёзный ответ на прорывные технологии предлагаемые Хуангом в 3 тысячной серии.
Выбор покупателя: 7 линеек видеокарт
7 моделей самых популярных графических процессоров, которые покупали в DNS чаще всего с мая по сентябрь 2019 года, вне зависимости от моделей конкретных производителей.
Видеокарты, с какой стороны к ним ни подходи, и с какой точки зрения ни рассматривай — продукт в крайней степени интересный. Ведь своим распространением персональные компьютеры обязаны, в первую очередь, играм. А какой полноценный игровой компьютер может быть без видеокарты? Правильно — никакой. Даже активное развитие встроенной графики не отменяет необходимость отдельной видеокарты для запуска игровых новинок в актуальных разрешениях и при настройках выше средних.
Когда майнинг стал популярным и на этой волне из магазинов начали исчезать наиболее производительные видеокарты, нависла угроза для всего рынка ПК: ведь при отсутствии видеокарт мало кому нужны новые процессоры, увеличение объема оперативки или смена аппаратной платформы на новое поколение.
К счастью, обошлось. И теперь, в период «криптовалютного похмелья», вспоминаем героев, которые помогли пережить майнинг-бум и их современных наследников.
1 место — GeForce GTX 1050 Ti
Популярность видеокарт на этом GPU обусловлена минувшим кризисом. Долгое время GTX 1050 Ti был фактически единственным выбором для тех, кто собирал новый ПК или апгрейдил уже существующий. Потому что цены на более производительные решения тогда взлетели до 30 тысяч рублей и выше — сумма немаленькая и никак не соотносимая с производительностью Radeon RX 570 или GeForce GTX 1060 3GB.
В то же время, GTX 1050 Ti стоила 10–15 тысяч и обеспечивала комфортный геймплей в Full HD при средних и высоких настройках графики. Не самый впечатляющий результат, но в отсутствие альтернатив эта карта стала подлинным светочем для геймеров в непростое время, когда будущее ПК как игровой платформы не вызывало надежд. И сохраняет свою популярность до сих пор.
2 место — Radeon RX 570
RX 570 — противоположный пример. Видеокарта, призванная стать альтернативой именно для GTX 1050 Ti и склонить предпочтения экономных геймеров в сторону продуктов AMD, на деле оказалась в топе интересов майнеров.
Надо сказать, что это вполне предсказуемо: RX 570 на старте стоила дешевле старшей RX 580. Отличалась меньшим энергопотреблением, но обладала тем же объемом набортной памяти (зачастую — набранной теми же чипами!) и имела тот же функционал для настройки таймингов, частот и напряжений. Как результат — производительность при добыче криптовалют была как минимум аналогичной.
После криптовалютной лихорадки RX 570, наконец, возвращается на прилавки магазинов и становится интересным вариантом для игроков. Производительность видеокарты достаточна для игр в Full HD на высоких и максимальных настройках графики, а цена вписывается в диапазон от 9 до 12 тысяч рублей — привлекательное сочетание.
3 место — GeForce GT 710
На третьем месте представитель не игрового класса, а вполне бюджетное решение в сегменте офисных ПК, HTPC и парке устаревшей техники, которая тоже иногда требует апгрейда.
Современная интегрированная графика может справляться с выводом 2D-изображения на несколько экранов высокой четкости, воспроизводить мультимедиа-контент любой сложности, ускорять операции в ряде рабочих программ. Встроенная графика прошлых поколений может не поддерживать современные интерфейсы вроде HDMI версии 1.4 и Dual-link DVI, или не иметь аппаратных декодеров. В любом случае, встроенная графика использует для своих нужд часть оперативной памяти, что в определенных случаях сказывается на производительности компьютера.
GeForce GT 710 же, будучи дискретной видеокартой, использует собственную набортную память. Поддерживает все актуальные интерфейсы для вывода видеосигнала, допускает работу в разрешениях вплоть до 4K, позволяет подключать одновременно до трех мониторов и, в целом, имеет тот же программный функционал, что и прочие карты на архитектуре Nvidia Kepler.
Разумеется, ни о каких игровых новинках с картой такого класса речи идти не может, но в качестве рабочего инструмента в офисном ПК, мультимедийного устройства в HTPC, либо замены условной GeForce 9800 GT в старом компьютере карта отлично подойдет.
4 место — GeForce GTX 1660
Семейство карт Nvidia на архитектуре Pascal отметилось множеством удачных моделей. Среди таковых была и GTX 1060 6GB, по праву заслужившая признание пользователей за производительность, сопоставимую с пред-флагманской моделью прошлого поколения (GTX 980), при меньшем энергопотреблении и меньшей цене. За возможность запускать любые игры в Full HD на высоких настройках в течение всего срока жизни карты. И это — характеристики модели из среднего сегмента!
Но даже самый удачный продукт со временем должен получать замену. И таковой для GTX 1060 6GB стала GTX 1660, основанная на новой архитектуре Turing.
Конечно, это не столь революционный продукт, до уровня GTX 1080 новинке очень и очень далеко. Правильнее рассматривать ее как современную замену для GTX 1060 6GB. Производительность немногим выше предшественницы, но она достаточна для игр в Full HD и полноценной конкуренции с Radeon RX 590, от которого GTX 1660 отличается меньшим энергопотреблением.
Разрешение Full HD (1920×1080 точек) уже давно не является новинкой, но сегодня именно оно претендует на звание «пользовательского стандарта». И видеокарты, способные обеспечить комфортный геймплей в этом разрешении, будут актуальны еще долгое время. GTX 1660 — одна из таких карт.
5 место — GeForce GTX 1660 Ti
Среди карт на чипах Turing оказалась не только альтернатива для GTX 1060 6GB, но и более производительное решение для тех, кому хочется пусть и «одним глазком», но оценить геймплей в разрешениях выше, чем Full HD.
GTX 1660 Ti отличается от младшей сестры только чуть более мощным GPU: объем памяти одинаков, частотная модель отличается не кардинально. Производительность в цифрах отличается незначительно, но на практике действительно ощущается.
В реальных играх GTX 1660 Ti обеспечивает более высокую производительность в Full HD, нежели GTX 1660, что позволяет без потерь задействовать настройки графики, недоступные для младшей модели: повысить качество сглаживания, например. При этом, что более важно, GTX 1660 Ti способна обеспечить комфортный игровой процесс не только при 1920×1080, но и при 2560×1440 точек.
Разумеется, это разрешение возможно полноценно задействовать либо в онлайн-играх со сравнительно простой графикой, либо в новинках AAA-класса ценой понижения графических настроек, но даже в этом случае для продукта из среднего ценового сегмента такие возможности выглядят настоящим прорывом и качественным изменением геймерского опыта.
6 место — GeForce RTX 2060
Подлинным наследником GTX 1060 в плане низвержения видеокарт предыдущего поколения выступают не GTX 1660/1660 Ti, а модель более высокого класса — RTX 2060. Именно эта карта может посоревноваться в производительности с GTX 1070 Ti и GTX 1080 — правда, стоит признать, что по энергопотреблению и цене разница будет не столь колоссальной и показательной, как в случае с GTX 1060 и GTX 980.
Тем не менее, RTX 2060 — это полноценный гейминг в Full HD при абсолютно любых настройках графики и в 2K — при настройках, близких к максимальным. Карты на этом GPU отличаются завидным разнообразием дизайна: в продаже можно найти компактные версии для систем в формате ITX и монструозные варианты с системами охлаждения толщиной в три слота расширения, обеспечивающими низкие температуры и эффективный разгон карты. Разумеется, и разброс цен позволяет подобрать наиболее выгодный для конкретного случая вариант.
Единственное, чего не стоит ожидать от RTX 2060 — полноценной работы функций трассировки лучей в реальном времени и улучшения картинки за счет алгоритмов машинного обучения. Увы, но эти функции требуют гораздо больших вычислительных ресурсов, нежели способна предложить младшая модель в линейке RTX.
7 место — GeForce GTX 1650
Последнее место в топе продаж занимает карта из семейства Nvidia Turing, которая и представлена была последней. Это не каламбур — GTX 1650 действительно показали в конце мая 2019 года, то есть буквально на днях. То, что эта карта сходу попала в топ продаж — однозначное свидетельство того, как сильно этот продукт ждали пользователи.
Это закономерно. GTX 1050 Ti давно требовалось заменить: сегодня не каждая новая игра комфортно играется на ней даже при средних настройках графики. А пришедшая ей на смену GTX 1650 действительно обеспечила существенный прирост производительности — по мнению многих профильных изданий разница составляет в среднем 25%, а для карт бюджетного сегмента такие значения ощутимы.
Тем не менее, основное преимущество GTX 1650 заключается не в производительности — конкурировать с вернувшимися на рынок Radeon RX 570/580 карта не способна. Её основной плюс — малое энергопотребление, что позволяет вендорам выпускать карты без разъемов дополнительного питания, а пользователям — апгрейдить системы со старыми или маломощными блоками питания.
Заключение
Как и сегмент центральных процессоров, видеокарты сегодня переживают ренессанс: дефицит уходит в прошлое, линейки-долгожители сменяются более современной альтернативой, появляются новые модели, у которых в предыдущих поколениях просто не было аналогов.
Пока что эти процессы не набирают таких темпов, чтобы можно было говорить о смене кризиса взрывным ростом и качественным изменением геймерского опыта буквально во всех игровых сегментах. Тем не менее — уже сегодня мы имеем доступные по цене видеокарты, способные потянуть в Full HD любую современную игру, и весьма красноречивые предпосылки к принятию 2K в качестве общедоступного стандарта.
Да, рост в данном случае эволюционный, а не революционный — но пользователь, сравнивший Full HD и 2K, предпочтет играть скорее в последнем разрешении, ведь разница в качестве итоговой картинки очевидна.
Революционных же изменений, увы, в ближайшее время ожидать не стоит. Разрекламированные новые функции так и останутся любопытной диковинкой — до тех пор, пока не станут доступны картам абсолютно всех ценовых сегментов и производителей. Иначе их применение попросту невыгодно для разработчиков игр, которым придется выполнять двойную работу, чтобы разницу заметил небольшой процент пользователей.Стоит ли менять имеющуюся видеокарту на модель из текущего поколения — вопрос, крайне зависящий от контекста. Но вот если пользователь решает, что стоит — сегодня у него есть реальная возможность выбора.