Время титанов возвращается! Знакомимся с видеокартой NVIDIA GeForce GTX Titan

Время титанов возвращается! Знакомимся с видеокартой NVIDIA GeForce GTX Titan

Первое знакомство с графическим ускорителем GeForce GTX Titan, основанным на GK110. Архитектура, новые возможности, разгон и потребительские характеристики.

20 февраля 2013, среда 18:00
Дмитрий Владимирович для раздела Лаборатория

Страницы материала

Вступление, технические характеристики, архитектура GK110, новые возможности, разгон

реклама

Оглавление

  • Вступление
  • Технические характеристики
  • Архитектура GK110
  • Новые возможности
  • Разгон
  • Внешний вид и размеры
  • Печатная плата
  • Система охлаждения
  • Тестовый стенд
  • Инструментарий и методика тестирования
  • Исследование потенциала системы охлаждения
  • Сводный анализ производительности систем охлаждения
  • Уровень шума
  • Предварительные выводы
  • За кадром

Вступление

379x400 45 KB. Big one: 1423x1500 215 KB

Задолго до появления всей архитектуры Kepler никому из пользователей и в голову не могло прийти, что в основу массовой видеокарты NVIDIA верхнего ценового сегмента будет положено графическое ядро площадью менее 300 мм 2 . Им стало GK104, не в последнюю очередь из-за желания компании убрать из своего списка очень дорогое графическое ядро площадью более 400 мм 2 . Дальнейшие модели ускорителей создавались под лозунгом «Цель оправдывает средства».

И пока преданные поклонники NVIDIA ждали выхода настоящего флагмана из серии «А посмотрите, какого я размера», видеокарты обоих вендоров приобрели очень странные по сравнению с предыдущими поколениями ценники. То, что еще пару лет назад оценивалось суммой до 400 долларов, стало предлагаться за 400-500 долларов. Свою роль здесь сыграло множество факторов.

Первый, самый критичный – переход на техпроцесс 28 нм и существенное удорожание производства. При этом пользователи не остались внакладе, получив действительно производительные решения, которые пусть и стоили дороже, чем прошлое поколение, но зато обладали куда большей скоростью. А за тот период времени, пока GeForce GTX 680 и Radeon HD 7970 соперничали, NVIDIA в кулуарах разработала эксклюзивного тихого убийцу. GK110 – это и есть молчаливый монстр, площадью 521 мм 2 . Ему совсем чуть-чуть не хватило до рекорда, который числится за GT200/300 первой ревизии. Вы только вдумайтесь, если GT200/300 производился по 65 нм технологии, обладал площадью 576 мм 2 и 1400 млн транзисторов в 2008 году, то спустя пять лет технологии позволили уместить 7100 млн транзисторов в куске кремния площадью 521 мм 2 .

Первые предпосылки о существовании GK110 появились в середине 2012 года, именно тогда всплыли некоторые данные, говорящие о скором выходе старшего решения. Вот только суждено ему было стартовать совсем в другом амплуа, не в игровом, а в сфере математических вычислений, в кругу моделей, именуемых как Tesla. На базе большого Kepler возникла целая серия профессиональных карт K20. Характеристики, интересующие большую часть пользователей, пусть и выглядели устрашающе для конкурента, но игрового применения не получили.

реклама

Что ж, тем проще было выбирать среди присутствующих на рынке видеокарт, разница в производительности которых зачастую ограничивалась значением в 10-15%. Примерно такой вот цифрой и можно охарактеризовать средний разброс между Radeon HD 7970 и GeForce GTX 680. Одна была чуть шумнее и прожорливее, но при этом быстрее, а вторая дороже и немного медленнее. Обе они хорошо подходили как для разгона, так и для современных игр, которые в последнее время не старались соответствовать духу времени. Отсюда и несерьезные на сегодняшний день технические требования. Особенно если учесть, что львиная доля пользователей как раз перешла с мониторов с разрешением меньше 1300 пикселей по ширине на модели с 1920.

Впрочем вернемся к Titan. Да, это новое название видеокарты для игроманов на GK110. Я продолжу с немного пугающей цифры – 35 000 рублей. Именно столько просит компания за свою разработку. Стоит отметить, что это рекомендованный производителем ценник, с которого, скорее всего, первые «сливки» захотят снять розничные продавцы. Думаю, к лету стоимость GeForce GTX 690 и GeForce GTX Titan сравняется.

Технические характеристики

рекомендации
-45000р на Xiaomi 12 Pro
В ДВА раза подешевел Xiaomi 12
65″ 4K TV Hyundai дешевле 40 тр
Круто подешевел iPhone 14 Plus
85″ TV Samsung подешевел на треть в рублях
в ДВА раза упал и так дешевый Xiaomi Poco C40
iPhone 14 Pro дешевеет в рублях тоже смотри
-50 000р на Xiaomi 12 — смотри цену
65″ 4K TV Haier дешевле 50 тр
70″ TV 4K Samsung — цена упала на порядок
65″ 4K TV Supra за 40 тр — пора брать
65″ 4K TV Hisense дешевле 50 тр
13900K в Регарде дешевле чем при курсе 60

Наименование HD 7970 HD 7970 GHz GTX 680 GTX Titan GTX 690
Кодовое имя Tahiti XT Tahiti XT GK104 GK110 GK104
Техпроцесс, нм 28 28 28 28 28
Размер ядра/ядер, мм 2 365 365 294 521 294×2
Количество транзисторов, млн 4300 4300 3540 7100 3540×2
Частота ядра, МГц 925 1050 1006 (1084) 840 (880) 915 (1020)
Число шейдеров (PS), шт. 2048 2048 1536 2688 3072
Число блоков растеризации (ROP), шт. 32 32 32 48 64
Число текстурных блоков (TMU), шт. 128 128 128 224 256
Максимальная скорость закраски, Гпикс/с 30.2 33.6 32 40.2 58.6
Максимальная скорость выборки текстур, Гтекс/с 118.5 134.4 128 187.5 234.2
Версия пиксельных/ вертексных шейдеров 5.0 / 5.0 5.0 / 5.0 5.0 / 5.0 5.0 / 5.0 5.0 / 5.0
Тип памяти GDDR5 GDDR5 GDDR5 GDDR5 GDDR5
Эффективная частота памяти, МГц 5500 6000 6000 6000 6000
Объем памяти, Мбайт 3072 3072 2048 6144 2048×2
Шина памяти, бит 384 384 256 384 256×2
Пропускная способность памяти, Гбайт/с 264 288 192 288.4 192×2
Потребляемая мощность (2D / 3D), Вт 3 / 250 3 / 290 нд / 195 нд / 250 нд / 300
CrossFire/Sli да да да да да
Рекомендованная цена, $ 410 430 500 999 999

Архитектура GK110

Ядро GK110 состоит из 15 SMX движков, каждый из которых наполнен вычислительными устройствами – Cuda-ядрами.

400x219 98 KB. Big one: 1500x821 667 KB

Если подробнее, то графический процессор GK110 содержит 192 FP32 CUDA-ядра и 64 FP64, 64 килобайта L1 кэша, 65 тысяч 32-битных регистров и 16 текстурных блоков. SMX движки состыкованы с 6 блоками, состоящими из 8 ROP каждый, 256 килобайтами L2 кэша и подсоединены к 64-битным контроллерам памяти. Число «15» не окончательное, в розничный сектор попали видеокарты с активированными 14 SMX. Как ни печально, но желание удержать энергопотребление на определенном уровне вносит свои коррективы в финальный продукт. Всего же в GK110 насчитывается 2688 CUDA-ядер, способных производить вычисления с одинарной точностью.

реклама

На тот случай, если вам захочется исполнить команды с двойной точностью, новый продукт NVIDIA располагает 896 FP64 ядрами. В дополнение к мощной вычислительной части у видеокарты присутствует 224 текстурных блока и 48 блоков ROP. В сущности, никаких изменений по сравнению с Tesla K20X. Желающие получить Hyper-Q и Dynamic Parallelism за 35 000 рублей могут не задерживаться, а проходить прямо к Tesla.

400x417 57 KB

За теоретической частью прячется суровая реальность. Частоты в угоду повсеместно внедряемой схеме снижения энергопотребления пришлось ограничить на уровне 8хх МГц. Что, с одной стороны, несколько меньше 1000 МГц у GTX 680, а с другой – не настолько мало, чтобы сильно выделяться среди семейства GeForce GTX. Что касается памяти, то золотой стандарт NVIDIA в 6 ГГц полностью соблюден. И приведу еще один интересный факт. На самом деле сейчас вполне можно было бы обойтись и объемом видеопамяти в 3 Гбайта, но новому флагману это просто не к лицу. Поэтому видеокарта получила 6 Гбайт, набранных двадцатью четырьмя микросхемами общей пропускной способностью в 288 Гбит/с.

На закуску осталось поговорить об энергопотреблении. Будь на дворе 2006-2008 год, то и 450 Вт мало кого удивило бы. Но в NVIDIA выбирали из двух вариантов. Приемлемый уровень – GeForce GTX 690 и 300 Вт, идеальный уровень – GeForce GTX 680 и 195 Вт. Здесь стоило бы сделать остановку и рассказать подробнее о 195 Вт у GeForce GTX 680. Это практически потолок энергопотребления на эталонной карте со 132% запасом Power Target. В жизни не все производители соблюдают энергетическую диету и часто превышают рекомендованный лимит. А GeForce GTX Titan умещается в 250 Вт, что очень скромно. И даже такой искусственный барьер позволяет разгонять видеокарту, впрочем, об этом речь пойдет чуть позже.

Итак, GeForce GTX Titan это в первую очередь игровая карта для настоящих энтузиастов, готовых выложить 35 000 рублей. Она едва ли не единственная, кто может не только быстро воспроизводить игровые картинки, но и считать. Напомню, что GK104 это игровое ядро с формальной поддержкой FP64. Скорость выполнения команд с двойной точностью у него ограничена 1/64 от полного такта, а у GK110 – 1/3, что дает ей 1.3 Тфлопса. Фактически, Titan претендует на роль младшей карты для вычислений. Ее нельзя расценивать с точки зрения «производительность/цена». Такой подход в корне убьет всю оставшуюся привлекательность, а она, поверьте мне, в ней есть.

Только сегодня и сейчас NVIDIA вправе говорить о выпуске самой быстрой однопроцессорной видеокарты, но лишь до тех пор, пока у конкурента нет аналога. Правда, я сильно сомневаюсь, что многим она окажется по карману, и еще меньшее число людей будет использовать ее возможности в полной мере. Вот и AMD не считает GeForce GTX Titan конкурентом.

Естественно, сегмент ультра дорогих моделей в разы меньше массового сектора, а идентичной производительности в играх проще достичь покупкой GeForce GTX 690 или сооружением связки SLI/Crossfire. С другой стороны, NVIDIA позволила себе подогреть интерес рынка к своим продуктам, так что можно считать Titan аналогом Veyron в мире видеокарт. Вы подумали о цене и ограниченности тиража? Неправильно, производитель уверяет, что не пройдет и двух недель с момента анонса, как Titan появится в магазинах и любой желающий сможет его приобрести.

Новые возможности

С анонсом архитектуры Kepler компания NVIDIA внедрила ряд дополнительных возможностей. В частности теперь можно задействовать адаптивный VSync. Суть его работы заключается в том, чтобы обеспечить максимально комфортное воспроизведение картинки в играх.

После активации адаптивного VSync максимальное число кадров в секунду не превышает частоту развертки монитора, но здесь важнее второй момент. Цикл падения производительности становится плавным, что приводит к отсутствию дерганой картинки. Усовершенствование заключается в том, что теперь доступна функция настройки ограничения кадров до любого значения, вплоть до 120.

Технология 3Way SLI позволяет подключить до трех GeForce GTX Titan в одной системе. На сегодня такой вариант наиболее производительный среди всего ассортимента предложений NVIDIA.

Разгон

Здесь наибольший интерес у пользователей вызовет новая технология GPU Boost 2.0. Пока она будет доступна только обладателям видеокарты GeForce GTX Titan, но я почти уверен, что позже следует ожидать ее появления и в будущих новинках NVIDIA. Стоит кратко напомнить, как пользоваться GPU Boost 1.0.

Встроенный алгоритм управления частотой и напряжением графического процессора работает по своим стандартам, и разгон видеокарт NVIDIA GeForce осуществляется несколько в ином формате. Обращаю ваше внимание, что сейчас в руки пользователей попадает несколько переменных.

Первая – предельное энергопотребление, стандартная формулировка которого обозначается цифрой 100% или ~xxx Вт для ускорителя целиком (может варьироваться в зависимости от экземпляра, в основном завышенное базовое значение используется в разогнанных с завода моделях). Отныне заявленная номинальная частота – это базовая частота, ниже которой графическое ядро не опускается ни при каких нагрузках в типичных игровых приложениях. Значение «Турбо» (GPU Boost) обозначает усредненную частоту GPU по результатам большинства игровых сцен.

реклама

Новая технология, ориентируясь на максимально допустимую нагрузку и достигнутую температуру, автоматически подстраивает частоту и задает напряжение. В теории максимальная температура равна 82-85°C, вентилятор системы охлаждения постоянно подстраивается под изменяющиеся условия тестирования, не позволяя GPU разогреться выше приведенных чисел. Естественно, что GPU Boost учитывает и температуру. И если видеокарта по каким-то причинам превысит эту цифру, в дело вступят функции защиты. Практический максимум, по заявлениям NVIDIA, равен 98°C – это критическая температура, после которой система может полностью выключиться, предварительно применив все доступные методы защиты.

Вторая – это желаемая частота. Я не пишу «базовая», поскольку при установке этой частоты можно поймать себя в ловушку. Все дело в том, что при значительном нагреве или в случае аномальной загрузки видеокарта может понижать данную частоту и ниже ваших установок.

Разгон стоит начинать со статичного предельного энергопотребления, например, 100%. Затем понемногу увеличиваете желаемую частоту – до тех пор, пока не увидите один из признаков достижения лимита. Видеокарта либо начнет сбрасывать частоты на начальные значения, либо зависать. Любой из этих признаков означает, что придется увеличивать предел. Не советую сразу выставлять максимально допустимое энергопотребление. Данное действие мгновенно приведет к перегреву и зависанию карты. Зато набравшись терпения, чутья и времени, вы гарантированно мелкими шажками разгоните карту до 1.2-1.3 ГГц.

В свою очередь GPU Boost автоматически добавляет напряжение в зависимости от выставленного предела энергопотребления, следом растет и частота. В конечном итоге видеокарта постепенно разгоняется. В чем же суть обоих инструментов управления? Не в том ли, что отныне нет смысла задавать базовую частоту и напряжение? Фактически, испробовав различные комбинации и варианты, мне удалось сбалансировать на грани фола и удержать хороший разгон во время проверки программой Furmark. Делается это двумя переменными. Необходимо тонко чувствовать работу GPU Boost и подстраиваться под нее, устанавливая правильную базовую частоту и предел энергопотребления.

К счастью, видеокарты оригинального дизайна получили расширенный диапазон регулировки Power Target – до 150 и более процентов. Но это применимо не всегда, часть ускорителей (особенно тех, что заранее разогнаны), наоборот, ограничена до 120%. Тут логичнее говорить об общем максимуме мощности системы питания, когда каждый производитель выставляет свой предел.

Говоря проще, Power Target указывает на максимальное энергопотребление видеокарты, под которое подстраиваются GPU Boost и ваши настройки разгона. Чем выше значение Power Target, тем больше шансов разогнать GPU, при условии нормальных температур графического ядра и силовой части. Как только вы упираетесь в верхнюю грань и параллельно пытаетесь задать большую частоту (нежели ту, на которой может работать видеокарта), алгоритм, заложенный в драйвер, сбрасывает частоту. После этого достаточно убрать с десяток мегагерц и повторить тест. И так до тех пор, пока не найдете максимально стабильную частоту ядра. А далее – новый маневр с Power Target. Совет здесь один: поднимать на одно-два деления и не забывать при этом о проверке работоспособности видеокарты на заданных параметрах.

Читать далее  Процессор и видеокарта не загружаются на 100%⁠⁠

Для тех, кто умудрился запутаться в разгоне новых GPU NVIDIA, я приготовил иллюстрации.

Общий план работы карты.

457x89 6 KB

Полное TDP видеокарты, именно максимально допустимое, изначально задано производителем. Складывается оно из штатных рабочих частот в рамках функции GPU Boost и максимального значения Power Target. GPU Boost управляет не только частотой, но и напряжением, а Power Target – это стратегический запас для разгона. Допустим, мы, не трогая Power Target, увеличим GPU Clock Offset.

493x125 11 KB

Запрашиваемая частота – это GPU Clock Offset. Было задано слишком высокое значение, которое превышает заложенное производителем начальное энергопотребление (TDP). В результате частота вырастет на меньшую величину. Для того чтобы действительно достичь требуемой частоты, придется сдвинуть Power Target.

494x127 10 KB

Вот так выглядят идеально подобранные настройки. Запрашиваемая частота подкреплена сдвигом ползунка Power Target. Максимальное TDP не превышено.

К сожалению, иногда приходится встречаться со сложным алгоритмом разгона. С тех пор как NVIDIA задала определенный уровень TDP для каждого класса видеокарт, а компании применяют собственный разгон, вы вполне можете столкнуться с полным отсутствием частотного потенциала. Очень сложно определить стабильную частоту, поскольку, даже увеличив Power Target, GPU Boost работает непредсказуемо. В одной игре вы получите 1130 МГц, а в более требовательной – 1100 МГц. После запуска Furmark на экране и вовсе будет фигурировать 1050 МГц.

Новая технология в виде GPU Boost 2.0 расширила свое влияние на частотный диапазон. Даже первая ее версия отличалась быстрой работой, постоянно стараясь увеличить частоту при любой возможности. Вторая версия работает по более агрессивному сценарию. Если заявленная частота GPU Boost равна 870 МГц, то в реальности можно встретить как 915 МГц, так и 990 МГц. Причины столь сильного повышения частоты кроются в настройках.

Во-первых, пользователям теперь доступна не одна базовая настройка (Power target), а две – Power Target и «Температура». По умолчанию приоритет остается за первой. Максимальное значение для Titan – всего 110%, начальная температура 80°C, а максимальная температура равна 95°C. Оба параметра могут задаваться как раздельно, так и совместно, причем приоритет можно изменять от одного к другому. Как результат, средняя частота увеличивается.

Готовы перейти к более интересной части? Тогда вперед. NVIDIA позволила при условии соглашения с риском повредить видеокарту задействовать небольшой вольтмод (OverVoltage) до 1.187 В. Соглашаясь с правилами, вы дополнительно увеличиваете напряжение и повышаете среднюю частоту GPU. Вроде бы появляется ощущение снисходительности по отношению к энтузиастам, но ранее объявленное общее ограничение максимального энергопотребления никуда не делось. Допустим, будем считать, что 250 Вт это среднее энергопотребление, тогда максимальное по моим тестам получилось «плюс 45 Вт». Не дотягивает даже до GeForce GTX 690.

Что же получают пользователи? Жесткую привязку к 295 Вт, все остальное предоставлено на ваше усмотрение, хотя напряжение при этом нельзя поднять выше 1.187 В. Налицо желание компании максимально огородить видеокарту от любых повреждений и запутать дополнительно пользователя различными настройками. Но не все так печально. Изначальный смысл появления температурной настройки позволяет существенно снизить уровень шума без риска перегреть карту. Говоря проще, в рамках определенного диапазона можно делать все, что вашей душе угодно, варьировать уровень шума, нагрева, разгон по своему усмотрению, но под контролем NVIDIA .

Дополнительно обнаружился еще один интересный момент. Ранее я не встречался с проблемой разгона памяти на видеокартах NVIDIA GeForce GTX 6xx, но теперь максимальный TDP распространяется и на память. Чем это чревато для энтузиастов? Приведу простой пример. Путем некоторых манипуляций вокруг цифры 295 Вт можно получить разгон 1100-1170 МГц, настало время разгонять память. Но каждые дополнительные 100 МГц памяти отнимут 25-50 МГц от разгона ядра. Неудобно и непривычно… К тому же, ускоритель GeForce GTX Titan не приспособлен для стресс-тестов типа Furmark. Он быстро распознает нетипичную нагрузку и снижает частоту вместе с напряжением до минимального значения. Для проверки разгона мне пришлось воспользоваться программой тестирования Unigine Heaven в максимально тяжелых для видеокарты условиях.

Частота GPU, ГГц 0.950 0.975 1 1.015 1.030 1.045 1.060 1.075 1.100 1.125
Power Target 100 102 106 106 106 106 106 106 106 106
Temp Target 80 85 95 95 95 95 95 95 95 95
GPU Clock offset 0 25 30 35 25 35 50 65 90 115
Напряжение, мультиметр, В 1.112 1.115 1.115 1.115 1.187 1.187 1.187 1.187 1.187 1.187
Температура GPU, °C 80 81 81 81 82 82 82 82 82 82
Температура VRM, °C 70 71 72 72 73 73 73 73 73 73
Обороты вентилятора (max), об/мин 2250 2350 2400 2400 2500 2500 2500 2500 2500 2500
Энергопотребление, Heaven, Вт 315 332 334 335 351 354 354 354 355 359

В итоге была достигнута стабильная частота графического процессора в 1125 МГц, а в играх и того больше – 1150 МГц. Не забыта и память, она разогналась совместно с GPU до 1650 МГц.

Пришло время рассмотреть видеокарту GeForce GTX Titan подробнее.

Подпишитесь на наш канал в Яндекс.Дзен или telegram-канал @overclockers_news — это удобные способы следить за новыми материалами на сайте. С картинками, расширенными описаниями и без рекламы.

Обзор и тестирование NVIDIA GeForce GTX TITAN 6 Гбайт

С момента выхода NVIDIA GeForce GTX 680 на архитектуре Kepler прошёл почти год – срок достаточно большой по меркам индустрии графических процессоров, пусть и замедлившейся в своём развитии в последнее время. Многие из нас с вами ждали, что уже этой весной компании AMD и NVIDIA смогут порадовать ценителей быстрой и качественной графики своими новыми процессорами и технологиями. Однако этого не произошло, к сожалению. Более того, судя по новостям, традиционные осенние анонсы пока также туманны. AMD, например, решила и вовсе заняться очередным переименованием видеокарт.

Тем не менее, по крайней мере одну интересную новинку нам всё-таки представили. Ей стала видеокарта NVIDIA GeForce GTX TITAN .

Всего предполагается выпустить 10000 экземпляров GeForce GTX TITAN, то есть речь идёт явно не о массовом продукте, о чём говорит и рекомендованная стоимость новинки – 999 долларов США (или 35 тыс.руб. на российском рынке). Графический процессор GK110, лежащий в основе TITAN, используется в профессиональных графических адаптерах Tesla K20X, устанавливаемых в суперкомпьютеры и высокопроизводительные серверы. А там совершенно иные стандарты стоимости, отсюда и запредельная, по мнению большинства обычных пользователей, для однопроцессорной видеокарты цена.

Давайте узнаем, что нам предлагает NVIDIA за такие немалые деньги.

1. Обзор видеокарты NVIDIA GeForce GTX TITAN 6 Гбайт

технические характеристики и архитектурные изменения

Технические характеристики видеокарты NVIDIA GeForce GTX TITAN приведены в таблице в сравнении с характеристиками AMD Radeon HD 7970 GHz Edition и NVIDIA GeForce GTX 680:

Итак, в графическом процессоре GK110 архитектуры Kepler, выпускаемом по 28-нм технологическому процессу, 7,1 миллиарда транзисторов, 2688 CUDA-ядер, а теоретическая производительность в SP-расчётах может достигать 4,5 терафлопса:

Интересное сравнение приводит NVIDIA с топовым процессором Intel на следующем слайде:

Всего в GK110 15 SMX-блоков, 14 из которых активны. Число текстурных блоков равно 224, блоков растеризации – 48:

В отличие от GK104, на котором базируется, например, GeForce GTX 680, в GK110 есть 64 блока двойной точности (FP64), с предельной теоретической производительностью 1,3 терафлопса. Итого в GK110 896 ядер с поддержкой двойной точности вычислений:

Кроме перечисленных архитектурных изменений, GeForce GTX TITAN базируется на 384-битной шине памяти, в отличие от 256-битной у предыдущего Hi-End продукта NVIDIA – GeForce GTX 680. И, конечно же, не стоит забывать про объём памяти, который составляет впечатляющие 6 Гбайт! Всё это позволит новинке превосходно чувствовать себя в самых ресурсоёмких графических режимах.

Вслед за архитектурными изменениями, одной из самых интересных особенностей GeForce GTX TITAN стала поддержка второй версии технологии динамического разгона GPU Boost 2.0:

Если раньше увеличение частоты графического процессора зависело только от предела мощности/напряжения…

…то в GPU Boost версии 2.0 к ним добавляется предельная температура, на которую GPU и «ориентируется» при разгоне:

Для GK110 данная граница температуры равна 80 градусам Цельсия, но пользователю предоставлена возможность увеличить её до 94 градусов Цельсия, и за счёт этого обеспечить видеокарте работу на более высоких частотах:

Проще говоря, GPU Boost 2.0 является как технологией способной повысить производительность GeForce GTX TITAN в условиях когда это возможно, так и инструментом, осуществляющим автоматический и постоянный контроль за тепловыделением видеокарты, когда температура GPU выходит за допустимые пределы.

Вообще, как покажет наше практическое изучение оверклокерского потенциала GeForce GTX TITAN, именно температура является ключевым фактором для успешного разгона GK110.

Что касается утилит, то на момент подготовки статьи полная поддержка TITAN была у EVGA Precision X версии 4.0.0 :

С помощью этой утилиты для разгона ядра TITAN можно не только изменять параметры «Power Target» и «Temp Target», но и увеличивать напряжение:

Познакомимся с видеокартой.

особенности видеокарты

Внешне новая GeForce GTX TITAN напоминает GeForce GTX 690 – тот же цвет металлического кожуха с лицевой стороны, те же вставки, и такое же прозрачное окно из поликарбоната:

Сверху видеокарты – логотип со светодиодной подсветкой:

Длина GTX TITAN составляет 267 мм, что совершенно нормально для современных видеокарт.

В плане выходов нет никаких отличий от GTX 680, здесь DVI-I и DVI-D (оба Dual-Link), один HDMI версии 1.4a и один DisplayPort версии 1.2:

С противоположной стороны можно увидеть открытый торец радиатора и пару винтов крепления кожуха.

GeForce GTX TITAN оснащена двумя разъёмами MIO для создания мультипроцессорных связок из двух, трёх или даже четырёх таких видеокарт:

Для дополнительного питания на видеокарте установлены восьми- и шестиконтактные разъёмы, то есть получилось нечто среднее между GTX 690 (2×8) и GTX 680 (2×6). Судя по спецификациям, максимальное энергопотребление TITAN не должно превышать 250 ватт, а мощность рекомендованного блока питания для системы с одной такой видеокартой составляет 600 ватт.

Печатная плата TITAN выполнена по уникальному дизайну с микросхемами памяти на лицевой и обратной стороне:

Вопреки нашим ожиданиям и 384-битной шине памяти, для питания графического процессора здесь отведены шесть фаз на элементах Dr.MOS, как и у эталонных GeForce GTX 680:

За управление ими отвечает контроллер ON Semiconductor NCP4206:

Ещё две фазы питания отведены на видеопамять, а одна – на силовые цепи.

Графический процессор GK110, площадь кристалла которого составляет впечатляющие 520 мм2, не закрыт теплораспределителем, что позволило узнать его ревизию – А1, и примерную дату выпуска – 50 неделя 2012 года:

С его конфигурацией и характеристиками вы уже ознакомились выше в разделе с теорией. Частота в 3D-режиме при напряжении 1,162 В составляет 837 МГц, а при высокой нагрузке может достигать 876 МГц (boost-режим). Хотя, на деле всё было немного не так. Но, об этом чуть позже. При переходе в 2D-режим частота снижается до 324 МГц, а напряжение – до 0,875 В.

Видеокарта оснащена GDDR5-микросхемами памяти в FCBGA-упаковке общим объёмом 6 Гбайт. Чипы выпущены компанией Samsung Semiconductor и имеют маркировку K4G20325FD-FC03 :

Их эффективная частота в 3D-режиме составляет 6008 МГц, что при ширине шины 384-бит даёт теоретическую пропускную способность 288,4 Гбайт/сек. Это на 50% выше пропускной способности памяти GeForce GTX 680, и должно положительно сказаться на производительности видеокарты в самых ресурсоёмких режимах с использованием сглаживания всех типов и степеней.

Утилита GPU-Z последней доступной на момент подготовки статьи версии знакома с характеристиками GeForce GTX TITAN лишь частично:

Добавим, что BIOS видеокарты мы можете скачать из нашего файлового архива .

эффективность системы охлаждения и субъективная оценка уровня шума

Особое внимание при разработке своего флагмана NVIDIA уделила совершенствованию системы охлаждения. Не удивительно, ведь и кристалл большей площади, и значительно повысившийся уровень тепловыделения ужесточили требования как к аппаратной, так и к программной части системы охлаждения. Схематично NVIDIA выделила три ключевых изменения: радиатор с испарительной камерой и большим числом тонких алюминиевых рёбер, а также специальная система контроля за скоростью вентилятора:

Если вам удастся самостоятельно снять и разобрать кулер GeForce GTX TITAN, то Джедаем становитесь сразу, юный Падаван, ибо винтов разных типов несметное количество преодолеть придётся:

В основе системы охлаждения лежит металлическая пластина с термопрокладками. Она охлаждает микросхемы памяти и отдельные силовые элементы. Внутри – под кожухом – находится алюминиевый радиатор с испарительной камерой:

Он крепится к графическому процессору отдельно и не контактирует с остальными элементами кулера:

Из оставшихся элементов отметим декоративную пластиковую накладку на турбине и, собственно, сам радиальный вентилятор:

Последний нам снять не удалось, поскольку кроме трёх винтов, он, похоже, ещё и приклеен к металлической раме.

Подсветка у кулера не слишком яркая, но достаточно красивая:

Особое внимание стоит уделить режимам работы кулера. В основе его работы лежит та самая технология GPU Boost 2.0 и температурная «отметка» графического процессора 80 градусов Цельсия, от которой напрямую зависит частота и число тактов графического процессора:

При превышении этой температуры Boost-частота GPU постепенно снижается, пока не достигнет номинальной для GK110, а при превышении 105 градусов Цельсия включается режим защиты, нередко называемый «Throttling». Вот почему к эффективности охлаждения графического процессора GeForce GTX TITAN предъявляются столь высокие требования.

Температурную границу срабатывания режимов снижения частот с помощью уже упомянутой здесь утилиты EVGA Precision X можно сдвинуть вверх до 94 градусов Цельсия:

Это позволит TITAN дольше работать на форсированных частотах, однако при превышении этой температурной отметки они снова снизятся до номинальных или опустятся ещё ниже. Зависимость производительности TITAN от температуры графического процессора NVIDIA схематично изобразила следующими кривыми:

Следовательно и скорость работы радиального вентилятора NVIDIA отрегулировала таким образом, чтобы видеокарта оставалась тихой, пока температура GPU не достигнет 80 градусов Цельсия, а после этого вентилятор начинает наращивать свои обороты:

Как видим, здесь NVIDIA сделала акцент на тишину, а не на эффективность охлаждения, полагаясь на защитные механизмы графического процессора и технологию GPU Boost 2.0.

При сдвиге предельной температуры GPU вверх вентилятор системы охлаждения TITAN будет функционировать при более высоких скоростях, обеспечивая видеокарте запас по форсированной частоте:

Давайте посмотрим, как это работает на практике. Для проверки температурного режима работы видеокарты в качестве нагрузки мы использовали пять циклов теста весьма ресурсоёмкой игры Aliens vs. Predator (2010) при максимальном качестве графики в разрешении 2560х1440 пикселей с анизотропной фильтрацией уровня 16х и MSAA4x. Для мониторинга температур и прочих параметров применялись программа MSI Afterburner версии 3.0.0 beta 6 и утилита GPU-Z версии 0.6.7 . Все тесты проводились в закрытом корпусе системного блока, конфигурацию которого вы сможете увидеть в следующем разделе статьи, при комнатной температуре 25 градусов Цельсия.

Читать далее  ПРОЦЕССОР ЭФФЕКТОВ TC ELECTRONIC M-ONE XL

Прежде всего посмотрим на температурный режим работы видеокарты при стандартных настройках мощности и температурной границы, а также автоматической регулировке скорости вращения радиального вентилятора:

Как видим, температура графического процессора уже на первом цикле игрового теста быстро превысила отметку 80 градусов Цельсия, и сразу же после этого форсированная частота GPU, которая составляла, 1006 МГц (да-да, 1006, а не 876 МГц!) снизилась сначала до 993 МГц, потом резко до 876 МГц и в конечном итоге опустилась до номинальных 837 МГц. Проще говоря, если температура графического процессора превысит 80 градусов Цельсия, то ни о каком boost-режиме работы TITAN говорить не приходится. Что касается скорости вращения вентилятора, то она с 1100 об/мин повысилась до 2412 об/мин и далее не увеличивалась.

Теперь попробуем повысить температурную границу до 94 градусов Цельсия, одновременно увеличив предельную мощность видеокарты до 106%. Радиальный вентилятор системы охлаждения по-прежнему функционирует в автоматическом режиме:

Совсем другая картина! Достигнув пиковых 1006 МГц, наш экземпляр TITAN в процессе тестирования снизил частоту лишь до 993 МГц и на ней прошёл практически весь тест. Нужно ли говорить, что в данном случае производительность TITAN будет значительно выше, нежели при стандартных настройках температуры и мощности, ориентированных на низкий уровень шума? Пиковая температура GPU во время тестирования составила 87 градусов Цельсия, а скорость вращения вентилятора увеличилась с 2412 до 2995 об/мин.

Теперь вновь вернём настройки температурной границы GPU и мощности видеокарты к номинальным (80°С/100%), но выставим скорость вращения вентилятора на максимум, и ещё раз повторим тесты:

«В Багдаде всё спокойно» – максимальная температура графического процессора составила 70 градусов Цельсия, а его частота постоянно находилась в режиме «форсажа» 1006 МГц. А что будет, если при максимальной скорости вентилятора увеличить предельную температуру GPU до 94 градусов Цельсия и мощность до 106%? Смотрим:

В плане частот работы видеокарты ничего не изменилось, однако пиковая температура графического процессора увеличилась на 2 градуса Цельсия при итоговых 72 градусах Цельсия.

Таким образом можно сделать вывод, что эффективное охлаждение графического процессора NVIDIA GeForce GTX TITAN, как никогда прежде, является наивысшим приоритетом для достижения максимальной производительности видеокарты и, самое главное, сохранения достигнутого уровня этой производительности во время продолжительной работы видеокарты в 3D-режиме.

Что касается уровня шума NVIDIA GeForce GTX TITAN, то измерить его по нашей стандартной методике не представляется возможным, поскольку для этого пришлось бы либо снять совсем кожух системы охлаждения и получить имеющие мало чего общего с реальными результатами данные, либо сверлить этот самый корпус, чтобы добраться до разъёма подключения вентилятора. Ни тот, ни другой вариант для нас были неприемлемы, поэтому сегодня мы ограничимся субъективной оценкой уровня шума. В 2D-режиме видеокарту совершенно не слышно, так как её вентилятор функционирует на 1100 об/мин. Это очень тихо. В 3D-режиме без повышения частот и изменения мощностных характеристик TITAN уровень шума видеокарты по-прежнему комфортен. Вентилятор работает «мягко», плавно наращивая или снижая свои обороты. При превышении скорости 2500 об/мин уровень шума GeForce GTX TITAN становится заметен на фоне тихого системного блока, но всё же ниже, чем, например, у двухпроцессорной GeForce GTX 690, или, тем более, эталонной системы охлаждения AMD Radeon HD 7970. В целом для видеокарты с тепловым пакетом 250 ватт система охлаждения оказалась на удивление нешумной.

оверклокерский потенциал

Оверклокерский потенциал нашего экземпляра видеокарты NVIDIA GeForce GTX TITAN мы проверяли с помощью утилиты EVGA Precision X, увеличив предел мощности и температурную границу до максимума:

Кроме того, дабы не ограничивать частотный потенциал видеокарты, боковая стенка корпуса была снята, а скорость вращения радиального вентилятора GeForce GTX TITAN была увеличена до максимального уровня 4000 об/мин.

После нескольких часов такого тестирования нам удалось повысить базовую частоту графического процессора на 135 МГц, а видеопамяти на 1300 эффективных мегагерц:

Итоговые частоты видеокарты составили 972/1011/7308 МГц:

В процессе дальнейшего тестирования частоту видеопамяти нам пришлось снизить на 40 МГц при итоговых 7268 МГц. Пиковая частота графического процессора разогнанной видеокарты кратковременно достигала 1137 МГц, но при высокой нагрузке всё же снижалась до 1071 МГц:

При этом, как можно увидеть, температура GPU в созданных нами условиях была довольно комфортной для GK110 и не превышала 64 градусов Цельсия. Попытки разгона с повышением напряжения до 1,187 В к успеху не привели, поэтому мы решили остановиться на достигнутых частотах.

энергопотребление

Измерение энергопотребления системы с различными видеокартами осуществлялось с помощью многофункциональной панели Zalman ZM-MFC3 , которая показывает потребление системы «от розетки» в целом (без учёта монитора). Измерение было проведено в 2D-режиме, при обычной работе в Microsoft Word или интернет-«сёрфинге», а также в 3D-режиме. Нагрузка создавалась с помощью четырёх циклов вступительной сцены уровня «Swamp» из игры Crysis 3 в разрешении 2560х1440 пикселей при максимальных настройках качества графики, но без использования сглаживания MSAA. Как показали наши тесты, новая игра генерирует на систему более высокую нагрузку, чем ранее использованная нами игра Metro 2033: The Last Refuge, этим и объясняется замена тестового пакета.

Для сравнения мы включили на диаграмму и в дальнейшее тестирование видеокарты NVIDIA GeForce GTX 690, ASUS GeForce GTX 680 DirectCU II TOP (приведённая к эталонным частотам) и HIS 7970 IceQ X² GHz Edition 3 Гбайт. Вот результаты измерения энергопотребления всех тестовых систем:

Выяснилось, что на номинальных частотах видеокарты система с GeForce GTX TITAN потребляет примерно на 55-60 ватт больше, чем система с ASUS GeForce GTX 680 и примерно на 40-45 ватт больше системы с HIS Radeon HD 7970. При разгоне TITAN энергопотребление увеличивается на 25 ватт до 547 ватт, что совсем немного для конфигураций с Hi End видеокартами, и это на 50 ватт ниже потребления системы с двухпроцессорной NVIDIA GeForce GTX 690. В общем-то, неожиданностей в этих измерениях мы не обнаружили сегодня. В простое все конфигурации демонстрируют одинаковый уровень энергопотребления.

2. Тестовая конфигурация, инструментарий и методика тестирования

Тестирование видеокарт было проведено на системе следующей конфигурации:

Системная плата: Intel Siler DX79SI (Intel X79 Express, LGA 2011, BIOS 0537 от 23.07.2012);
Центральный процессор: Intel Core i7-3960X Extreme Edition 3,3 ГГц (Sandy Bridge-E, C1, 1,2 В, 6×256 Kбайт L2, 15 Мбайт L3);
Система охлаждения CPU: Phanteks PH-TC14PЕ ( 2xCorsair AF140 , 960 об/мин);
Термоинтерфейс: ARCTIC MX-4 ;
Видеокарты:

NVIDIA GeForce GTX 690 2×2 Гбайт ;
ASUS GeForce GTX 680 DirectCU II TOP 2 Гбайт ;
HIS 7970 IceQ X² GHz Edition 3 Гбайт ;

Оперативная память: DDR3 4×4 Гбайт Mushkin Redline (2133 МГц, 9-10-10-28, 1,65 В);
Системный диск: SSD 256 Гбайт Crucial m4 (SATA-III, CT256M4SSD2, BIOS v0009);
Диск для программ и игр: Western Digital VelociRaptor (SATA-II, 300 Гбайт, 10000 об/мин, 16 Мбайт, NCQ) в коробке Scythe Quiet Drive 3,5″;
Архивный диск: Samsung Ecogreen F4 HD204UI (SATA-II, 2 Тбайт, 5400 об/мин, 32 Мбайт, NCQ);
Корпус: Antec Twelve Hundred (передняя стенка – три Noiseblocker NB-Multiframe S-Series MF12-S2 на 1020 об/мин; задняя – два Noiseblocker NB-BlackSilentPRO PL-1 на 1020 об/мин; верхняя – штатный 200-мм вентилятор на 400 об/мин);
Панель управления и мониторинга: Zalman ZM-MFC3 ;
Блок питания: Seasonic SS-1000XP Active PFC F3 (1000 Вт), 120-мм вентилятор;
Монитор: 27″ Samsung S27A850D (DVI-I, 2560х1440, 60 Гц).
Из указанных в конфигурации видеокарт только продукт ASUS имеет повышенные частоты, поэтому для «чистоты» сравнения мы привели их к эталонным для GeForce GTX 680:

Для снижения зависимости производительности видеокарт от скорости платформы, 32-нм шестиядерный процессор при множителе 37, опорной частоте 125 МГц и активированной функции «Load-Line Calibration» был разогнан до 4,625 ГГц при повышении напряжения в BIOS материнской платы до 1,49 В:

Технология «Hyper-Threading» активирована. При этом 16 Гбайт оперативной памяти функционировали на частоте 2 ГГц с таймингами 9-11-10-28 при напряжении 1,65 В.

Тестирование, начатое 24 февраля 2013 года, было проведено под управлением операционной системы Microsoft Windows 7 Ultimate x64 SP1 со всеми критическими обновлениями на указанную дату и с установкой следующих драйверов:

чипсет материнской платы Intel Chipset Drivers – 9.4.0.1014 WHQL от 07.02.2012 ;
библиотеки DirectX End-User Runtimes, дата выпуска – 30 ноября 2010 года ;
драйверы видеокарт на графических процессорах AMD – Catalyst 13.2 Beta 6 (12.100.17.0) от 18.02.2013 + Catalyst Application Profiles 12.11 (CAP2) ;
драйверы видеокарт на графических процессорах NVIDIA – GeForce 314.09 WHQL от 21.02.2013 для GeForce TITAN и GeForce 314.07 WHQL от 18.02.2013 для GeForce GTX 690 и GTX 680.

Производительность видеокарт была проверена в двух разрешениях: 1920х1080 и 2560х1440 пикселей. Для тестов использовались два режима качества графики: «Quality + AF16x» – качество текстур в драйверах по-умолчанию с включением анизотропной фильтрации уровня 16х, и «Quality + AF16x + MSAA 4х(8х)» с включением анизотропной фильтрации уровня 16х и полноэкранного сглаживания степени 4x или 8x, в случаях, когда среднее число кадров в секунду оставалось достаточно высоким для комфортной игры. Включение анизотропной фильтрации и полноэкранного сглаживания выполнялось непосредственно в настройках игр. Если же данные настройки в играх отсутствовали, то параметры изменялись в панелях управления драйверов Catalyst и GeForce. Там же была принудительно отключена вертикальная синхронизация. Кроме указанного никаких изменений в настройки драйверов не вносилось.

Список тестовых приложений и игр в очередной раз был обновлен и расширен. В него были включены новый 3DMark (2013), последняя версия теста Heaven и совсем новый, но очень красивый тест Valley . Кроме того, мы дополнили список игровых тестов новинками в виде Resident Evil 6, Crysis 3 и Tomb Raider (2013). Всего в нашем сегодняшнем арсенале значится два полусинтетических бенчмарка, две демо-сцены и четырнадцать наиболее ресурсоёмких игр:

3DMark 2011 (DirectX 11) – версия 1.0.3.0, профили настроек «Performance» и «Extreme»;
3DMark (2013) (DirectX 9/11) – версия 1.0, тестирование в сценах «Cloud Gate», «Fire Strike» и «Fire Strike Extreme»;
Unigine Heaven Bench (DirectX 11) – версия 4.0, максимальные настройки качества, тесселляция на уровне «extreme», AF16x, MSAA 8x, разрешения 1920х1080 и 2560х1440 пикселей;
Unigine Valley Bench (DirectX 11) – версия 1.0, максимальные настройки качества, AF16x, MSAA 8x, разрешения 1920х1080 и 2560х1440 пикселей;
Resident Evil 6 Bench (DirectX 9) – версия 1.0, все настройки выставлены на максимальный уровень качества, сглаживание FXAA3HQ, размытие включено, разрешения 1920х1080 и 2560х1440 пикселей;
S.T.A.L.K.E.R.: Call of Pripyat (DirectX 11) – версия 1.6.02, профиль настроек «Улучшенное динамическое освещение DX11» с дополнительным выставлением вручную всех параметров на максимум, тестировалась собственная демо-запись «cop03» на уровне «Затон»;
Metro 2033: The Last Refuge (DirectX 10/11) – версия 1.2, использовался официальный тест, настройки качества «Very High», тесселляция, DOF включено, использовалось ААА-сглаживание, двойной последовательный проход сцены «Frontline»;
Aliens vs. Predator (2010) (DirectX 11) – «Texture Quality» в режиме «Very High», «Shadow Quality» в режиме «High», технология SSAO включена, два цикла теста в каждом разрешении;
Total War: SHOGUN 2 – Fall of the Samurai (DirectX 11) – версия 1.1.0, встроенный тест (битва при Sekigahara) на максимальных настройках качества графики и использовании в одном из режимов MSAA 8x;
Crysis 2 (DirectX 11) – версия 1.9, использовался Adrenaline Crysis 2 Benchmark Tool v1.0.1.14 BETA , профиль настроек качества графики – «Ultra High», текстуры высокого разрешения активированы, двукратный цикл демо-записи на сцене «Times Square»;
Battlefield 3 (DirectX 11) – версия 1.4, все настройки качества графики на «Ultra», двойной последовательный проход заскриптованной сцены из начала миссии «На охоту» продолжительностью 110 секунд;
Sniper Elite V2 Benchmark (DirectX 11) – версия 1.05, использовался Adrenaline Sniper Elite V2 Benchmark Tool v1.0.0.2 BETA максимальные настройки качества графики («Ultra»), Advanced Shadows: HIGH, Ambient Occlusion: ON, Stereo 3D: OFF, двойной последовательный прогон теста;
Sleeping Dogs (DirectX 11) – версия 1.5, использовался Adrenaline Sleeping Dogs Benchmark Tool v1.0.0.3 BETA , максимальные настройки качества графики по всем пунктам, Hi-Res Textures pack установлен, FPS Limiter и V-Sync отключены, двойной последовательный прогон теста с суммарным сглаживанием на уровне «Normal» и на уровне «Extreme»;
F1 2012 (DirectX 11) – Update 10, использовался Adrenaline Racing Benchmark Tool v1.0.0.13 , настройки качества графики на уровне «Ultra», 2 круга на бразильской трассе «Interlagos», 24 машины, лёгкий дождь, режим камеры – «Bonnet»;
Borderlands 2 (DirectX 9) – версия 1.3.1, встроенный тест при максимальных настройках качества графики и максимальном уровне PhysX, сглаживание FXAA включено.
Hitman: Absolution (DirectX 11) – версия 1.0, встроенный тест при настройках качества графики на уровне «Ultra», тесселяция, FXAA и глобальное освещение включены.
Crysis 3 (DirectX 11) – версия 1.0.0.2, все настройки качества графики на максимум, степень размытости – средняя, блики включены, режимы с FXAA и с MSAA4x сглаживанием, двойной последовательный проход заскриптованной сцены из начала миссии «Swamp» продолжительностью 110 секунд;
Tomb Raider (2013) (DirectX 11) – версия 1.00.716.5, настройки качества на уровне «Ultra», V-Synс отключён, режимы с FXAA и с 2x SSAA сглаживанием, технология TressFX активирована, двойной последовательный проход встроенного в игру теста.

Если в играх реализована возможность фиксации минимального числа кадров в секунду, то оно также отражалось на диаграммах. Каждый тест проводился дважды, за окончательный результат принималось лучшее из двух полученных значений, но только в случае, если разница между ними не превышала 1%. Если отклонения прогонов тестов превышали 1%, то тестирование повторялось ещё, как минимум, один раз, чтобы получить достоверный результат.

3. Результаты тестов производительности и их анализ

Перед анализом результатов тестирования обращаем ваше внимание на тот факт, что в номинальном режиме работы GeForce GTX TITAN тестировалась в стандартных условиях, как и все остальные видеокарты статьи. То есть внутри корпуса системного блока, без изменений предела мощности, напряжения, увеличения температурной границы и в автоматическом режиме работы вентилятора. В то же время, при разгоне GeForce GTX TITAN корпус был открыт, турбина постоянно функционировала на максимальной скорости, а мощность и предельная температура были выставлены вручную до своих верхних пределов.

3DMark 2011

Как говорится – с места в карьер. Если GeForce GTX 680 здесь идёт на равных с Radeon HD 7970 GHz Edition, то новый однопроцессорный флагман NVIDIA – GeForce TITAN – превосходит их сразу более чем на 33%, что весьма впечатляет! В то же время, до уровня производительности двухпроцессорной GeForce GTX 690 в номинальном режиме работы TITAN довольно далеко, вопреки предварительным ожиданиям. И даже при разгоне этой сверхбыстрой видеокарты её отставание от GTX 690 составляет около 5%.

3DMark (2013)

Все три теста новейшего полуситнетического пакета 3DMark (2013) продемонстрировали нам примерно одинаковую картину. GeForce GTX TITAN опережает GeForce GTX 680 на величину вплоть до 44%, отстаёт от GeForce GTX 690 на 4-16%, но сокращает это отставание при разгоне. Также отметим, что Radeon HD 7970 GHz Edition в этом тесте быстрее GeForce GTX 680, поэтому появление TITAN для укрепления позиций NVIDIA в этом бенчмарке как нельзя кстати.

Читать далее  Top 10 Best Vocal Processors Of 2023 Reviews – Buyer’s Guide

Unigine Heaven Bench

И вновь мы видим близость результатов GeForce GTX 680 и Radeon HD 7970 GHz Edition с небольшим преимуществом последней, а также впечатляющий отрыв от них GeForce GTX TITAN. Шутка ли, но Титан опережает прежнего однопроцессорного флагмана NVIDIA сразу на 45%, а при разгоне не «даёт спуску» двухпроцессорной GeForce GTX 690. В номинальном режиме работы двух самых быстрых видеокарт сегодняшнего теста GTX 690 быстрее TITAN на 32%, что также довольно немало, учитывая одинаковую рекомендованную стоимость этих видеокарт.

Unigine Valley Bench

В тесте Unigine Valley повторяется картина, которую мы с вами только что видели в Unigine Heaven. Пожалуй, в будущих материалах о видеокартах мы остановимся на одном из двух этих тестовых пакетов Unigine.

Resident Evil 6 Bench

В баллах измеряется производительность видеокарт и в новом тесте Resident Evil 6:

Здесь мы видим более уверенное выступление GeForce GTX 680 против Radeon HD 7970 GHz Edition и 22-28% преимущество GeForce GTX TITAN над первой видеокартой. В то же время отметим значительную разницу в производительности между TITAN и GTX 690, где лидирует двухпроцессорная видеокарта с преимуществом 18-42% в зависимости от разрешения. Догнать её при разгоне TITAN также не получается, хотя в разрешении 1920х1080 пикселей отставание сокращается до минимума.

Перейдём к результатам в играх.

S.T.A.L.K.E.R.: Call of Pripyat

Что касается режима без использования сглаживания, то производительность GeForce GTX TITAN немногим выше производительности GTX 680 и совсем уж не впечатляет на фоне той прыти Radeon HD 7970 GHz Edition, которую видеокарта на графическом процессоре AMD традиционно демонстрирует в S.T.A.L.K.E.R. Однако при активации MSAA4x «Титан» наращивает своё преимущество, которое в итоге достигает 31-46%. Догнать двухпроцессорную GeForce GTX 690 не удаётся и при повышении частот.

Metro 2033: The Last Refuge

Куда более ресурсоёмкая чем S.T.A.L.K.E.R.: Call of Pripyat игра Metro 2033: The Last Refuge демонстрирует нам несколько иную картину:

GeForce TITAN на 48-54% быстрее GTX 680 – такой разницы в производительности мы с вами давно уже не наблюдали даже при смене поколений графических процессоров, что уж говорить про одну линейку ускорителей? Впечатляющий результат! И пусть до двухпроцессорной GeForce GTX 690 новая TITAN не дотягивает, при разгоне видеокарты этот недостаток компенсируется в полной мере. Конечно, все мы понимаем, что GTX 690 также неплохо разгоняется. Кроме этого, отметим очень уверенное выступление Radeon HD 7970 GHz Edition, которая в Metro 2033: The Last Refuge не оставила ни единого шанса своему прямому конкуренту в лице GeForce GTX 680.

Aliens vs. Predator (2010)

Уверенно чувствует себя Radeon HD 7970 GHz Edition и в игре Aliens vs. Predator (2010):

Особо впечатляет результат этой видеокарты в наиболее ресурсоёмком режиме в разрешении 2560х1440 пикселей с использованием сглаживания, когда производительность Radeon HD 7970 GHz Edition равна вдвое более дорогой GeForce GTX TITAN. Последняя оказывается на 32-45% быстрее GeForce GTX 680 и на 22-27% медленнее GeForce GTX 690. Догнать двухпроцессорную видеокарту не получается даже при разгоне. А ведь стоить они, по замыслу NVIDIA, должны одинаково…

Total War: SHOGUN 2 – Fall of the Samurai

В Total War: SHOGUN 2 – Fall of the Samurai GeForce GTX TITAN быстрее GeForce GTX 680 на 28-43% и медленнее GTX 690 на 22-26%. Разогнав «Титан», можно сократить его отставание до двухпроцессорной видеокарты до 7-12%. Кроме того, минимальное число кадров в секунду на самой быстрой однопроцессорной видеокарте выше, нежели на GTX 690. Radeon HD 7970 GHz Edition быстрее GeForce GTX 680 в режимах без сглаживания и медленнее при активации MSAA8x. В обоих случаях разница невелика.

Crysis 2

Несмотря на выход Crysis 3, результаты в котором мы рассмотрим в конце анализа, Crysis 2 по-прежнему популярен как тест видеокарт, поэтому пока мы не исключаем его из наших тестирований:

NVIDIA GeForce GTX TITAN опережает GeForce GTX 680 на 42-47%, что в очередной раз является превосходным результатом для видеокарт одного поколения графических процессоров. Вместе с тем, TITAN медленнее GeForce GTX 690 на 13-24%, а разгон позволяет сократить это отставание до 2-8%.

Battlefield 3

В Battlefield 3 разница между однопроцессорными видеокартами NVIDIA не такая впечатляющая, как в предыдущих играх и составляет 24-34% в пользу TITAN. Двухпроцессорная GeForce GTX 690 быстрее TITAN на 29-33%, в том числе и по минимальному числу кадров в секунду. Отметим, что при разгоне видеокарты сократить это отставание удаётся, но не так сильно, как мы видели ранее.

Sniper Elite V2 Benchmark

В Sniper Elite V2 хочется выделить не столько 42-61% превосходство TITAN над GeForce GTX 680, сколько то, как блестяще проявляет себя Radeon HD 7970 GHz Edition! В свою очередь, GeForce GTX 690 быстрее разогнанной TITAN в режимах без MSAA-сглаживания и медленнее в режимах при его активации.

Sleeping Dogs

Не менее уверенно чувствует себя Radeon 7970 GHz Edition и в игре Sleeping Dogs:

GeForce GTX TITAN совсем рядом к… Radeon HD 7970 GHz Edition, хотя новый флагман NVIDIA на 29-35% быстрее GeForce GTX 680. Двухпроцессорная GeForce GTX 690 недостижима для TITAN, в том числе и при разгоне последнего.

F1 2012

Необъяснимым образом сложилась ситуация в тесте F1 2012:

Речь не столько о неработоспособности SLI в режимах со сглаживанием, сколько о том, что GeForce GTX TITAN работает так, как будто все результаты получены в одном и том же тестовом режиме, хотя не заметить изменение разрешения или активацию MSAA8x во время тестирования было попросту невозможно. Вероятно, в драйверах видеокарты GeForce закралась какая-то ошибка/оптимизация, которая не позволила получить достоверный результат на GeForce GTX TITAN.

Borderlands 2

В Borderlands 2 всё возвращается «на круги своя»:

NVIDIA безапелляционно опережает здесь AMD, а новая GeForce GTX TITAN на 22-35% быстрее «старой» GeForce GTX 680, уступая GTX 690 порядка 10-12%. После разгона «Титана» ему даже удаётся обойти двухпроцессорную видеокарту в наиболее ресурсоёмком режиме.

Hitman: Absolution

Если в режиме без использования MSAA8x мы можем наблюдать вполне типичное для сегодняшних тестов преимущество GeForce GTX TITAN над GTX 680, выражающееся в 34-44%, то при включении сглаживания оно возрастает до рекордных для статьи 71-79%. Очевидно, что GTX 680 здесь не хватает ни ширины шины обмена с памятью видеокарт, ни самого объёма видеопамяти. Разогнанная TITAN догоняет двухпроцессорную GeForce GTX 690, а по минимальному числу кадров в секунду даже опережает её.

Crysis 3

Наконец, результаты в новейшей игре Crysis 3:

Radeon HD 7970 GHz Edition здесь немного быстрее GeForce GTX 680, но разница некритична, чтобы разбивать пальцы о клавиатуры в фанатских форумах. GeForce GTX TITAN быстрее GTX 680 на 29-42%, что довольно неплохо, и на 25-29% медленнее двухпроцессорной GeForce GTX 690. Догнать последнюю «Титану» не удаётся и при разгоне, хотя отставание сокращается до 11-16%.

Tomb Raider (2013)

В самой свежей игре сегодняшнего тестирования впечатляет производительность Radeon HD 7970 GHz Edition, которая едва отстаёт от новой GeForce GTX TITAN. Впрочем, последняя также выглядит здесь блестяще, опережая в номинальном режиме работы GeForce GTX 680 на 39-72%, а при разгоне превосходя даже двухпроцессорную GeForce GTX 690.

Дополним диаграммы итоговой таблицей с результатами тестов, и переходим к сводным диаграммам.

4. Сводные диаграммы

Сводные диаграммы строились только по результатам игровых тестов. Прежде всего, давайте оценим разницу в производительности новой GeForce GTX TITAN и GeForce GTX 680, от результатов которой мы и отталкивались:

В среднем по всем тестам GTX TITAN быстрее GTX 680 на 34-47% в разрешении 1920х1080 пикселей и на 39-55% в разрешении 2560х1440 пикселей. Нетрудно заметить, что наибольшее преимущество достигается в ресурсоёмких режимах с использованием методик улучшения качества изображения, и в частности – сглаживания. Именно в таких режимах и проявляют себя во всей красе 384-битная шина памяти и её увеличенный объём. При этом не будем забывать и про увеличенное число шейдерных процессоров, текстурных блоков и ROPs у GK110.

Далее посмотрим на отставание GeForce GTX TITAN от двухпроцессорной видеокарты GeForce GTX 690. Напомним, что рекомендованная стоимость этих продуктов одинакова и составляет 999 долларов США:

За исключением неадекватных результатов в игре F1 2012, в целом TITAN отстаёт от GTX 690 довольно «кучно». В разрешении 1920х1080 пикселей в среднем по всем игровым тестам «Титан» медленнее на 12-17%, а в разрешении 2560х1440 пикселей медленнее на 7-19%. Кстати, в этом сравнении мы также можем отметить влияние ширины шины обмена с памятью и её объёма на результаты.

При разгоне GeForce GTX TITAN с 837/876/6008 МГц до 973/1011/7268 МГц новый однопроцессорный флагман здорово сокращает своё отставание от GeForce GTX 690, а в некоторых играх даже удаётся вырвать лидерство у тандема GK104:

Последняя на сегодня пара сводных диаграмм не вписывается в тематику статьи, но мы решили столкнуть друг с другом GeForce GTX 680 и Radeon HD 7970 GHz Edition. Почти год назад мы уже сравнивали GTX 680 и HD 7970 друг с другом, и тогда в большинстве тестов победу одержала видеокарта на графическом процессоре NVIDIA. Однако с того времени компания AMD не только смогла снизить рекомендованную цену на свой Hi-End продукт, но и повысила частоты с 925/5500 до 1050/6000 МГц, придав видеокарте статус «GHz Edition». Не будем забывать и про перманентно оптимизирующиеся программистами драйверы Catalyst и GeForce, а также про выход новых игр. И вот как теперь складывается ситуация в противостоянии двух этих видеокарт:

Как видим, спустя год после выхода GeForce GTX 680, чаще победу одерживает именно Radeon HD 7970 GHz Edition, и это тревожный звоночек для NVIDIA. Только в Borderlands 2, качественном режиме Total War: SHOGUN 2 – Fall of the Samurai и в F1 2012 (без MSAA) GeForce GTX 680 удаётся одержать победы. Во всех остальных играх быстрее оказывается Radeon HD 7970 GHz Edition.

5. Тестирование в CUDA и OpenCL приложениях

Помимо традиционных тестов в графических приложениях и играх, мы дополнительно провели изучение эффективности работы GK110 в расчётных программах и программах кодирования. Первым на очереди стал тест SmoothVideo Project (SVP) – SVPMark 3.0.3a. За результат мы приняли число баллов, полученных в Real-life тесте:

Как видим, ничего впечатляющего здесь GeForce GTX TITAN не продемонстрировала. Разница с GeForce GTX 680 минимальна, как и прирост производительности при разгоне.

Далее мы измеряли скорость кодирования HD-видео в программе Xilisoft Video Converter версии 7.7.2, поддерживающей как графические процессоры AMD, так и NVIDIA. Для кодирования было взято FullHD-видео размером 2,5 Гбайт, конвертируемое в формат для iPad 4. На выходе получался файл размером около 750 Мбайт. Чем меньше время, тем лучше результат:

Несмотря на заметное преимущество видеокарт на графических процессорах NVIDIA над AMD и над разогнанным шестиядерным процессором Intel, GeForce GTX TITAN здесь не быстрее обычной GeForce GTX 680. Двухпроцессорная GeForce GTX 690 также не даёт ощутимого преимущества. Видимо, Xilisoft Video Converter не поддерживает мультипроцессорность, как и, по всей видимости, не задействует все возможности GK110.

Ещё одним тестом данного раздела стал DirectCompute Benchmark версии 0.45b. На диаграмме мы приводим результаты DirectCompute и OpenCL Score:

Мы попытались проверить эффективность работы GK110 и в популярном тесте LuxMark , однако нас ждало разочарование, поскольку последняя доступная на момент подготовки статьи версия 2.0 не поддерживала GeForce GTX TITAN и тест «вылетал» с ошибкой. Поэтому доступны лишь результаты старых видеокарт:

По логике, GeForce GTX TITAN должен был показать результат на уровне GeForce GTX 690, но как оно будет на самом деле мы узнаем только после выхода совместимой с GK110 версии LuxMark. Сейчас же мы можем констатировать тот факт, что AMD Radeon здесь значительно быстрее.

Заключение

По итогам всех тестов у нас сложились смешанные впечатления от NVIDIA GeForce GTX TITAN. C одной стороны мы имеем безоговорочного однопроцессорного лидера по производительности, который потребляет некритично больше электроэнергии прежних флагманов AMD и NVIDIA, шумит даже чуть меньше и поддерживает все те технологии, которыми наделили GeForce GTX 680, и даже чуть больше (GPU Boost 2.0, например). Более всего в GeForce GTX TITAN впечатляет именно производительность, – она попросту ошеломительна! Как ещё иначе назвать 50-процентную (а нередко и выше) прибавку в скорости к теперь уже бывшему однопроцессорному флагману NVIDIA – GeForce GTX 680? В последние годы такая разница, к сожалению, недостижима даже при смене поколений графических процессоров, не говоря про линейку видеокарт одного семейства GPU. Выпуском GeForce GTX TITAN компания NVIDIA стремилась продемонстрировать своё технологическое превосходство над конкурентом, и, нужно признать, ей это всецело удалось.

В то же время, неоправданно высокая начальная стоимость GeForce GTX TITAN и примерно 10-20% проигрыш по скорости двухпроцессорной GeForce GTX 690, рекомендованная стоимость которой идентична TITAN, а розничная, скорее всего, пару месяцев будет ниже, не позволяют сделать однозначный выбор в пользу новинки на GK110. Кроме того, для не опасающихся AFR-рендеринга геймеров выгоднее выглядят конкуренты в лице CrossFireX-связки из двух Radeon HD 7970 GHz Edition – по скорости данный тандем будет быстрее в подавляющем большинстве игр, но проиграет по энергопотреблению и тепловыделению. Впрочем, владельцы этого класса видеокарт вряд ли принимают во внимание счета за потреблённое электричество. Так что, как имиджевый продукт GeForce GTX TITAN хорош, вероятно даже безупречен, но с точки зрения цены мы не можем назвать его приобретение выгодным. Впрочем, по утверждениям NVIDIA, три GeForce GTX TITAN быстрее двух GeForce GTX 690 – это так, на заметку «золотой молодёжи».

Неоднозначные впечатления на нас произвела и технология GPU Boost 2.0. Разгон видеокарты теперь стал куда более кропотливым и трудоёмким, а зависимость от температуры существенно возросла. В связи с этим, наибольший интерес должны бы представлять не эталонные TITAN с оригинальными системами охлаждения, но суждено ли появиться таким видеокартам? На наш взгляд, скорее нет, чем да. И раз уж NVIDIA оказалась способна выпустить TITAN, а до выхода новых графических процессоров ещё довольно много времени, то может она порадует поклонников своей продукции какой-нибудь GeForce GTX 685 с 384-битной шиной и 6 Гбайт видеопамяти? Так как сейчас производительность GeForce GTX 680 на фоне значительно окрепшей и подешевевшей Radeon HD 7970 GHz Edition выглядит не слишком выразительно. Время покажет…

Источник https://overclockers.ru/lab/show/52246/Vremya_titanov_vozvraschaetsya_Znakomimsya_s_videokartoj_NVIDIA_GeForce_GTX_Titan

Источник https://fcenter.ru/online/hardarticles/videos/35161-Obzor_i_testirovanie_NVIDIA_GeForce_GTX_TITAN_6_Gbajt

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *