Обзор видеокарты nvidia geforce gtx 1080 pascal. часть 1

Обзор видеокарты nvidia geforce gtx 1080 pascal. часть 1

Обзор Nvidia GeForce GTX 1080 Pascal | Знакомимся с графическим процессором GP104

В канун выставки Computex Nvidia решила представить собственную долгожданную новинку — адаптированную для геймеров архитектуру Pascal. В новых видеокартах GeForce GTX 1080 и 1070 производитель устанавливает графический процессор GP104. Сейчас, мы разглядим старшую модель, а младшая обязана появляться в отечественных руках в первых числах Июня.

Архитектура Pascal обещает более стремительную и более действенную работу, больше вычислительных модулей, уменьшенную площадь кристалла и более стремительную память с модернизированным контроллером. Она лучше подходит для виртуальной реальности, игр в 4K и других задач, требующих высокой производительности.

Как неизменно, мы попытаемся разобраться в обещаниях производителя и проверить их на практике.

Начнем.

Поменяет ли GeForce GTX 1080 расстановку сил в сегменте High-End?

Nvidia GeForce GTX 1080 – самая быстрая из двух игровых видеоплат, объявленных в начале месяца. Обе применяют графический процессор GP104, что, кстати, есть уже вторым GPU с микроархитектурой Pascal (первым был GP100, показавшийся на GTC в апреле).

CEO Nvidia Жэнь-Сунь Хуань подразнивал энтузиастов, в то время, когда воображал новинку широкой общественности, утверждая, что GeForce GTX 1080 обгонит две 980 в SLI.

Кроме этого он подчернул, что GTX 1080 при большей производительности имеет меньшее энергопотребление, чем 900-я серия. Она в два раза производительнее и в три раза действеннее бывшего флагмана GeForce Titan X, но в случае если всмотреться в сопутствующие диаграммы и графики, то узнается, что такая внушительная отличие проявляется в определенных задачах, которые связаны с виртуальной реальностью. Но кроме того в случае если эти обещания подтвердятся только частично, нас все равно ожидают очень увлекательные времена в плане развития high-end игр на ПК.

Виртуальная реальность начинает понемногу усиливаться , но высокие аппаратные требования для графической системы создают значительный барьер для доступа к этим разработкам. Помимо этого, большая часть дешёвых сейчас игр не могут применять преимущества многопроцессорного рендеринга. Другими словами, вы, в большинстве случаев, ограничены возможностями одного стремительного видеоадаптера с одним GPU.

GTX 1080 способна превзойти по скорости работы две 980-х и не должна испытывать затруднений в современных VR-играх, нивелируя потребность в многопроцессорных конфигурациях в будущем.

Не меньшими темпами прогрессирует экосистема 4K. Интерфейсы с повышенной пропускной свойством, такие как HDMI 2.0b и DisplayPort 1.3/1.4 должны открыть дверь для 4K мониторов со 120 Гц поддержкой и панелями динамической частоты обновления экрана уже к концу этого года.

Не смотря на то, что прошлые поколения топовых графических процессоров AMD и Nvidia позиционировались как решения для игр в 4K, пользователям приходилось идти на компромиссы по качеству, дабы поддерживать приемлемую частоту кадров. GeForce Nvidia GTX 1080 может стать первым графическим адаптером, скорости которого будет достаточно для поддержания высокой частоты кадров в разрешении 3840×2160 точек с большими настройками детализации графики.

Какова обстановка с конфигурациями из нескольких мониторов? Многие геймеры готовы устанавливать по три монитора с разрешением 1920×1080, но при условии, что графическая совокупность справится с нагрузкой, поскольку в этом случае карте приходится отрисовывать полмиллиона пикселей, потому, что разрешение образовывает 7680×1440. Имеется кроме того энтузиасты, готовые забрать три 4K-дисплея с совокупным разрешением 11520×2160 точек.

Последний вариант через чур экзотичный кроме того для новой геймерской флагманской видеоплаты. Однако, процессор Nvidia GP104 оснащен разработкой, которая обещает улучшить впечатления от обычных для новой модели задач, другими словами 4K и Surround. Но прежде, чем мы перейдем к новым разработкам, давайте поближе познакомимся с процессором GP104 и лежащей в его основе архитектурой Pascal.

Из чего состоит GP104?

В первую очередь 2012 года AMD и Nvidia применяют 28-нанометровый техпроцесс. Перейдя на него, обе компании сделали значительный рывок вперед, представив нам видеоплаты Radeon HD 7970 и GeForce GTX 680.

Однако, за последующие четыре года им было нужно очень сильно изворачиваться, дабы вытянуть больше производительности из существующей разработки. Успехи видеоплаты Radeon R9 Fury X и GeForce GTX 980 Ti — это настоящее чудо, учитывая их сложность. Первым чипом, созданным Nvidia по техпроцессу 28 нм, был GK104, складывавшийся из 3,5 миллиардов транзисторов.

GM200, что устанавливается в GeForce GTX 980 Ti и Titan X, имеет уже восемь миллиардов транзисторов.

Переход на 16 нм разработку TSMC FinFET Plus разрешил инженерам Nvidia реализовать новые идеи. В соответствии с техническим данным чипы 16FF+ на 65% стремительнее, смогут иметь в два раза громадную плотность, чем 28HPM, или потреблять на 70 меньше энергии. При создании собственных GPU Nvidia применяет оптимальную комбинацию этих преимуществ.

TSMC говорит, что в базу были положены инженерные наработки существующего процесса 20 нм, но вместо плоских транзисторов применяла транзисторы FinFET. В компании говорят, что таковой подход снижает количество брака, и повышает выход рабочих пластин. Кроме этого утверждается, что 20-нанометрвого техпроцесса с стремительными транзисторами у компании не было.

Повторимся, мир компьютерной графики более четырех лет сидит на техпроцессе 28 нм.

Блок-схема процессора GP104

Преемник GM204 складывается из 7,2 миллиардов транзисторов, размещенных на площади 314 мм2. Для сравнения площадь кристалла GM204 образовывает 398 мм2 при 5,2 миллиардах транзисторов. В полной версии один GPU GP104 имеет четыре кластера обработки графики (Graphics Processing Clusters — GPC). Любой GPC включает пять кластеров обработки потоков/текстур (Thread/Texture Processing Clusters — TPC) и блок растеризации.

TPC сочетает в себе один потоковый мультипроцессор (Streaming MultiprocessorSM) и движок PolyMorph. SM объединяет 128 ядер CUDA одинарной точности, 256 Кбайт регистровой памяти, 96 Кбайт неспециализированной памяти, 48 Кбайт кэша L1/текстур и восемь текстурных блоков. Четвертое поколение движка PolyMorph включает новый блок логики, что находится в конце конвейера геометрии перед блоком растеризации, он руководит функцией мультипроекции Simultaneous Multi-Projection (об этом чуть ниже).

В общем итоге мы приобретаем 20 SM, 2560 ядер CUDA и 160 блоков обработки текстур.

Один потоковый мультипроцессор (SM) в GP104

Бек-энд графического процессора включает восемь 32-битных контроллеров памяти (суммарная ширина канала 256-бит), восемь блоков растеризации и 256 Кбайт кэша L2 для каждого блока. В итоге мы имеем 64 ROP и 2 Мбайт поделённой кэш-памяти L2. Не смотря на то, что на блок-схеме процессора Nvidia GM204 было продемонстрировано четыре 64-битных контроллера и 16 ROP, они были сгруппированы и с функциональной точки зрения эквивалентны.

Кое-какие структурные элементы GP104 похожи на GM204, так как новый GPU был создан из строительных блоков собственного предшественника. В этом нет ничего нехорошего. Если вы не забывайте, в архитектуре Maxwell компания сделала ставку на энергоэффективность и не стала перетряхивать блоки, каковые являлись сильной стороной Kepler.

Подобную картину мы видим и тут.

Добавление четырех SM не имеет возможности заметно оказать влияние на производительность. Но у GP104 имеется пара козырей в рукаве. Первый козырь – значительно более высокие тактовые частоты. Базисная тактовая частота GPU образовывает 1607 МГц. В спецификациях GM204, для сравнения, указано 1126 МГц. Большая частота GPU Boost достигает 1733 МГц, но мы довели отечественный пример до 2100 МГц, применяя бета-версию утилиты EVGA PrecisionX.

Откуда таковой запас для разгона? По словам Джона Албина, старшего вице-президента отдела разработки GPU, его команда знала, что техпроцесс TSMC 16FF+ окажет влияние на работу архитектуры чипа, исходя из этого они сосредоточили силы на оптимизации таймингов в микросхеме, дабы убрать узкие места, мешающие достижению более высоких тактовых частот. В следствии скорость вычислений одинарной точности GP104 достигла 8228 GFLOPs (на базисной частоте) если сравнивать с потолком в 4612 GFLOPs у GeForce GTX 980.

Скорость закраски текселей подскочила с 155,6 Гтекс/с у 980-й (с GPU Boost) до 277,3 Гтекс /с.

GPU
GeForce GTX 1080 (GP104)
GeForce GTX 980 (GM204)
SM 20 16
Количество ядер CUDA 2560 2048
Базисная частота GPU, МГц 1607 1126
Частота GPU в режиме Boost, МГц 1733 1216
Скорость вычислений, GFLOPs (при базисной частоте) 8228 4612
Количество блоков текстурирования 160 128
Скороть заполнения текселей, Гтекс/с 277,3 155,6
Скорость передачи данных памяти, Гбит/с 10 7
Пропускная свойство памяти, Гбайт/с 320 224
Количество блоков растеризации 64 64
Количество кэша L2, Мбайт 2 2
Тепловой пакет, Вт 180 165
Количество транзисторов 7,2 млрд. 5,2 млрд.
Площадь кристалла, мм2 314 398 мм
Техпроцесс, нм 16 28

Бэк-энд так же, как и прежде включает 64 блоков ROP и 256-разрядную шину памяти, но дабы расширить дешёвую пропускную свойство Nvidia внедрила память GDDR5X. Компания приложила большое количество упрочнений для раскрутки нового типа памяти, в особенности на фоне памяти HBM, которая употребляется в различных видеоплатах AMD и HBM2, которую Nvidia устанавливает в Tesla P100.

Складывается чувство, что на рынке на данный момент имеется дефицит памяти HBM2, наряду с этим компания не готова принять ограничения HBM (четыре стека по 1 Гбайт, или трудности, которые связаны с реализацией восьми стеков по 1 Гбайт). Так, мы взяли видеопамять GDDR5X, поставки которой, "Наверное," также ограничены, потому, что GeForce GTX 1070 уже применяет простую GDDR5. Но это не перекрывает преимуществ нового ответа.

Память GDDR5 в GeForce GTX 980 имела скорость передачи данных 7 Гбит/с. Это снабжало 224 Гбайт/с пропускной способности через 256-разрядную шину. GDDR5X стартует с 10 Гбит/с, повышая пропускную свойство до 320 Гбайт/с (повышение на ~43%).

По словам Nvidia прирост достигается благодаря модернизированной схеме ввода-вывода, причем без увеличения энергопотребления.

Архитектура Maxwell стала более действенно применять пропускную свойство методом алгоритмов сжатия и оптимизации кэша, тем же методом идет и Pascal с новыми способами сжатия без утрат, дабы более экономно применять дешёвую ширину канала системы памяти. Метод дельта-компрессии цветов пробует достигнуть выигрыша 2:1, причем данный режим был улучшен с целью более нередкого применения.

Кроме этого имеется новый режим 4:1, что используется в тех случаях, в то время, когда различия на пиксель совсем маленькие. Наконец, в Pascal представлен еще один новый метод 8:1, что использует сжатие 4:1 к блокам 2х2, отличие между которыми обрабатывается по методу 2:1.

Отличие не тяжело проиллюстрировать. На первом изображении продемонстрирован несжатый снимок экрана из игры Project CARS. На следующем снимке продемонстрированы элементы, каковые может сжать карта на архитектуре Maxwell, они закрашены фиолетовым. На третьем снимке видно, что Pascal сжимает сцену еще больше.

По данным Nvidia, эта отличие преобразуется приблизительно в 20%-ое сокращение информации в байтах, которую нужно выбрать из памяти для каждого кадра.

Случайная статья:

GTX 1080 tested in 20 games


Похожие статьи:

Комментирование и размещение ссылок запрещено.

Обсуждение закрыто.