Vvmebel.com

Новости с мира ПК
0 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

Какие видеокарты nvidia поддерживают sli

Как работает режим SLI – мощь нескольких видеокарт в одном устройстве

Когда-то, в давние времена технологий, получение большей мощности видеокарты означало необходимость покупать карту, более мощную (и, возможно, более дорогую!), чем текущая карта. Но, пользователи всегда «мечтали» иметь возможность просто купить дубликат видеокарты, которая у них есть, вместо того, чтобы тратить деньги на что-то более новое и быстрое?

Что ж, к счастью, Nvidia и их технология с несколькими GPU «SLI» дают нам просто решение, если вы используете одну из их карт.

Масштабируемый интерфейс связи (SLI)

Так что же такое SLI? И что делает SLI, или более конкретно: как он помогает использовать несколько видеокарт?

Интерфейс Scalable Link Interface (SLI) – это небольшая жемчужина, которую нам предоставили Nvidia в 1998 году. Впервые эта технология была использована компанией 3dfx на линейке видеокарт Voodoo2 в 1998 году, но позже компания была куплена Nvidia, и эта технология была заморожена на некоторое время.

В 2004 году Nvidia повторно выпустила SLI с обновлениями, позволяющими ей работать с существующей на тот момент технологией шин PCIe.

Хотя существуют проблемы совместимости (обсуждаемые ниже), связанные с запуском нескольких установок графического процессора, SLI позволяет использовать от двух до четырех карт одновременно. Это достигается путем использования алгоритма параллельной обработки, который собирает информацию, разбивает её на более мелкие части и позволяет обрабатывать несколько частей одновременно несколькими видеокартами.

Режимы SLI

Видеокарты Nvidia будут работать в SLI в трёх основных режимах: сглаживание SLI , SFR и AFR . Вы можете выбрать и изменить эти режимы в Панели управления Nvidia, которая должна была быть установлена на ваш компьютер при установке драйверов видеокарты.

Рендеринг с разделением кадров (SFR)

Этот метод берет кадр, который необходимо визуализировать, анализирует его, а затем разбивает кадр по горизонтали на столько частей, сколько имеется карт, и распределяет рабочую нагрузку между ними. Он может разбить кадр так, как он считает нужным, основываясь на том, что находится в кадре.

Например, если кадр содержит в основном пустое статичное небо в верхней половине кадра (менее ресурсоемкое), но изменяемые объекты в нижней половине (более интенсивно), то при разделении 50/50 одна карта будет выполнять больше работы. Поэтому видеокарта, отвечающая за верхнюю часть экрана, может получить около 60% площади экрана, в то время как карта, отвечающая за нижнюю часть, должна обработать только нижние 40%.

Примечание: эти проценты являются лишь расплывчатыми примерами, а не конкретными цифрами.

Альтернативный рендеринг кадров (AFR)

В этом режиме кадры ставятся в очередь, и каждая карта отображает полный кадр. Таким образом, если вы используете 2 карты, то одна будет отвечать за четные кадры, а другая – за нечетные кадры. Это часто считается более эффективным, чем SFR, для достижения более высокой частоты кадров, но также может вызывать такие проблемы, как микростеролазание.

Ключевое слово: Micro Stuttering – это когда вы видите на экране «визуальные заикания», вызванные несоответствием времени рендеринга кадров между картами. Если карты не синхронизированы должным образом или у них недостаточно информации, чтобы угадать следующий кадр, который нужно визуализировать, то вы увидите задержку.

SLI сглаживание

Этот режим обеспечивает лучшее качество изображения, в отличие от увеличения частоты кадров. Он работает для разделения нагрузки сглаживания между картами, повышая общее качество вашего изображения.

Использование этого режима может разблокировать более высокие режимы сглаживания в играх (например, SLI 8x, 16x и даже 32x в системах Quad-SLI).

Совместимость и проблемы режима SLI

Казалось бы, купи две видеокарты Nvidia, вставь их в разъемы на материнской плате и наслаждайся «удвоенной» скоростью работы. К сожалению, не всё так просто.

Два (или более) вида

Первое, что вам нужно знать, это то, какие видеокарты будут соединяться вместе: не любые две видеокарты смогут так взаимодействовать. Они должны иметь один и тот же графический процессор, и должны иметь одинаковое количество видеопамяти.

Например, если у вас GTX 1070 Ti 8GB производства Asus, а другая той же спецификации, но от MSI, то режим SLI доступен. Но, GTX 1070 и GTX 1080 несовместимы, так как они не являются одним и тем же графическим процессором.

Вам также необходимо убедиться, что видеокарты совместимы с режимом SLI, так как карты без порта SLI могут быть несовместимы. Также стоит отметить, что в Nvidia убрала поддержку 3-х и 4-х карточного SLI для серии GTX 10.

Слоты и заглушки

Следующим в списке стоит ваша материнская плата и блок питания. Они оба должны быть совместимы со SLI.

Это означает, что вашей материнской плате потребуется достаточно слотов PCIe x16, чтобы соответствовать количеству графических процессоров, а вашему блоку питания потребуется достаточно разъемов PCIe для питания того количества карт, которое вы будете использовать.

Отсутствие удвоения видеопамяти

Распространенное заблуждение относительно SLI состоит в том, что вы можете получить двойную, тройную или даже четырехкратную видеопамять с большим количеством видеокарт. К сожалению, Nvidia SLI использует ОЗУ только с одной карты, поскольку каждая карта должна получать доступ к одной и той же информации в одно и то же время.

Что такое мост SLI

Последнее, что вам понадобится для запуска настройки SLI, – это мост SLI. Nvidia использует физический разъем для соединения видеокарт вместе, что позволяет им взаимодействовать друг с другом, не используя драгоценную полосу пропускания в слотах PCIe.

Вам понадобится один из двух мостов SLI: либо стандартный мост (для менее мощных карт), либо мост с высокой пропускной способностью (для более мощных карт).

NVIDIA SLI в современных играх: тест двух видеокарт ASUS ROG Strix GTX 1080 в одной системе

У технологии NVIDIA SLI богатая история. Идея распределения нагрузки между несколькими графическими адаптерами родилась в конце 90-х годов во времена популярности видеокарт Voodoo от фирмы 3dfx, и тогда еще не существовало никакого «слая». По-настоящему эффективное распространение GPU-связок произошло в 2000-х, когда аппаратных ограничений для построения систем из 2/3/4 адаптеров стало меньше, плюс появились оптимизированные под это дело игры и программы.

С тем фактом, что большинство игр будут неадекватно воспринимать используемую вами связку NVIDIA SLI, стоит смириться как можно раньше.

Сейчас технология NVIDIA SLI используется в основном энтузиастами и моддерами. Первым дополнительная видеокарта (или несколько видеокарт) необходима для получения рекордного результата в синтетических бенчмарках (именно тестовые приложения адекватнее всего реагируют на бонусные графические мощности в системе), вторым — для эффектной иллюминации внутри ПК, с дополнительными светодиодами и т. д.

Геймеры отдают предпочтение одному адаптеру в системе, что вполне оправдано. Регулярно проводимые тесты NVIDIA SLI в современных играх доказывают, что разработчики весьма неохотно оптимизируют свои проекты под мощные мульти-графические связки из нескольких ускорителей. По сути это и есть главное ограничение на пути развития данной технологии.

Зачастую один мощный графический адаптер уровня high-end оказывается мощнее двух видеокарт более низкого класса. Ко всему прочему, поддержка SLI в последнее время внедряется лишь в самые топовые ускорители (производительности которых и так достаточно для большинства игр), что также негативно сказывается на развитии мульти-графических систем.

Если вы все-таки решились на сборку системы NVIDIA SLI, состоящей из нескольких адаптеров, рекомендуем в первую очередь поразмышлять над следующими техническими тонкостями:

  • материнская плата; очевидно, что на ней должно быть как минимум два коннектора PEG (PCI-E x16), причем желательно, чтобы именно на такой скорости они и работали с используемыми видеокартами (об этих нюансах мы поговорим ниже);
  • мощный блок питания; еще до сборки ПК стоит хотя бы примерно рассчитать уровень энергопотребления системы; для нашей системы хватило БП на 1000 Вт;
  • процессор; для раскачки нескольких видеокарт потребуется мощный ЦП (уровня Intel Core i7), но ключевая особенность, на которую стоит обратить внимание, – количество линий PCI-E, с которыми умеет работать выбранный камень (16, 28 или 44);
  • драйвер; в общем-то любое профильное ПО для видеокарт GeForce в автоматическом порядке определяет наличие SLI в системе, но все же не лишней окажется проверка активности этой технологии сразу после установки драйвера силами сторонних утилит;
  • круг задач, для которых планируется использовать NVIDIA SLI; об этом лучше подумать еще до приобретения нескольких мощных ускорителей; может случиться так, что толка от навороченной системы с парой-тройкой графических адаптеров не будет.
Читать еще:  Как узнать название видеокарты на ноутбуке

Трудности при сборке и эксплуатации технологии NVIDIA SLI

Без подводных камней обойтись не получится; хотя еще раз повторимся: с ходом времени технология NVIDIA SLI эволюционирует. Слабых мест становится меньше, а процесс сборки и использования мульти-графических связок упрощается.

Ожидать двукратного прироста от дополнительной GeForce GTX 1080 в системе не стоит.

Первое, о чем необходимо позаботиться сразу после сборки системы, – правильное распределение процессорных линий PCI-E между используемыми адаптерами. Поясним. Каждый процессор поддерживает ограниченное количество линий PCI-E (как правило, 16, 28 или 44).

Все ЦП для платформы LGA 1151 не вылезают за рамки 16 линий, а значит две видеокарты способны функционировать лишь в режиме х8+х8 (собственно это убедительный довод в пользу отказа от построения NVIDIA SLI в подобных системах).

А вот процессоры для LGA 2011 и LGA 2066 поддерживают 28 и 44 линии PCI-E (в зависимости от модели), и это уже достаточный арсенал для раскачки двух или трех видеокарт.

К слову, в этом обзоре мы сравним возможности режимов х16+х16 и х16+х8; в этом нам помогут центральные процессоры Intel Core i9-7900X (у него 44 линии) и Core i7-7800X (у него — 28).

Итак, еще до сборки NVIDIA SLI пользователь должен знать о технических возможностях своего ЦП, а следовательно и о правильном распределении процессорных линий PCI-E. Эту правильность необходимо проверить сразу после первого включения системы. Лучше всего это сделать в UEFI BIOS.

Современные материнские платы делятся подробной технической информацией об установленных в нее комплектующих, в том числе о распределении пресловутых линий PCI-E между адаптерами. Данные можно промониторить и в среде Windows, например, в программах GPU-Z и AIDA64.

Если в вашем распоряжении оказался процессор с 44 линиями PCI-E, а система показывает, что пара видеокарт функционирует в формате х16+х8 (мы лично столкнулись с такой проблемой), придется убедить ПК в том, что он не прав. В нашей ситуации помогла перестановка двух ускорителей; мы просто поменяли их местами, после чего система распределила линии правильно (х16+х16).

В большинстве игр одна GeForce GTX 1080 Ti оказывается не хуже, чем пара GeForce GTX 1080.

Еще одна трудность, которая может возникнуть после сборки NVIDIA SLI, – черный экран или некорректное отображение картинки на мониторе (например, недоступно разрешение 4К, с которым дисплей в принципе работать умеет).

Скорее всего, дело в неверно выбранном коннекторе подключения с обратной стороны ускорителя. Определить правильный поможет, опять же, драйвер (панель управления). Во вкладке SLI отображен требуемый для корректного вывода картинки разъем одной из используемых видеокарт. Впрочем, найти его можно и вручную, банально подрубая провод к каждому графическому интерфейсу.

С тем фактом, что большинство игр будут неадекватно воспринимать используемую вами связку NVIDIA SLI, стоит смириться как можно раньше. Это пресловутая оптимизация, а точнее ее отсутствие. Какие-то проекты видят лишь половину графической памяти, какие-то — только одну видеокарту; некоторые отображают правильную информацию, например, GTA V, Ghost Recon Wildlands и Rainbow Six Siege.

Скажем, Rise of the Tomb Raider безбожно тормозит в системе, где используется технология SLI (особенно в разрешениях 1080р и 1440р), а Warhammer 40,000: Dawn of War III и Total War: Warhammer никак не реагируют на появление в системе второй видеокарты GeForce GTX 1080 (что с одним адаптером, что с двумя, – средний кадр/с одинаковый).

NVIDIA SLI — это лотерея, в которой либо повезет, либо нет; предугадать итог заранее практически невозможно. Можно лишь поискать SLI профиль в драйверах для той или иной игры, а также покопаться в отзывах пользователей, которые уже протестировали мульти-графические связки в различных проектах.

NVIDIA SLI: х16+х16 или x16+x8?

Это один из вопросов, на который мы желали получить ответ в процессе исследования аппаратных возможностей NVIDIA SLI. Стоит ли приобретать дорогой процессор с большим количеством линий PCI-E для полного раскрытия потенциала топовых видеокарт?

Проведенные тесты доказали, что разница между режимами х16+х16 и х16+х8 существует, однако зачастую она сводится к банальной погрешности (в некоторых играх, не оптимизированных, прироста нет вообще). Согласитесь, что 85 и 90 кадр/с — это не та пропасть, которая требует переплаты в несколько сотен долларов (мы о ЦП с поддержкой не 28, а 44 линий PCI-E)?

Даже синтетический и максимально лояльный к любым дополнительным мощностям 3DMark никак не отреагировал на дополнительную восьмерку процессорных линий PCI-E (а следовательно и большую пропускную способность интерфейса), ровно как и на более производительный ЦП.

Либо вторая видеокарта в системе есть, либо ее нет. На какой скорости она передает данные – неважно. Установлен ли в вашей системе 10-ядерный Intel Core i9-7900X или более доступный Core i7-7800X, также существенного значения не имеет (применительно к NVIDIA SLI).

Тестовый стенд:

Результаты тестирования

На системе с процессором Intel Core i9-7900X мы протестировали связку SLI из двух ASUS ROG Strix GTX 1080 (в формате x16+x16), а также один ускоритель GeForce GTX 1080 и ASUS ROG Strix GTX 1080 Ti. Процессор Intel Core i7-7800X потребовался для прогона SLI в режиме x16+x8.

Важно заметить, что две видеокарты в одной упряжке не перегреваются (спасибо энергоэффективной архитектуре Pascal); вентиляторы СО вращаются довольно редко, температура каждого чипа не превышает 65-70 градусов в процессе испытаний.

Ожидать двукратного прироста от дополнительной GeForce GTX 1080 в системе не стоит, даже на полных скоростях x16+х16; хотя в некоторых хорошо оптимизированных играх (особенно в высоком разрешении, например, 4К) плюсовая разница стремится именно к такому значению (Rainbow Six Siege, GTA V и Ghost Recon Wildlands).

В большинстве случаев одна GeForce GTX 1080 Ti оказывается не хуже, чем пара GeForce GTX 1080. Вся правда отражена на тестовых графиках.



Выводы

Технология NVIDIA SLI развивается, оптимизированные профили для современных игр в драйверах GeForce также появляются, пусть и не столь стремительными темпами, как этого хотелось бы. Тандем из нескольких графических ускорителей по-прежнему остается уделом энтузиастов и любителей всего самого навороченного.

Бережливый юзер отдаст предпочтение сборке с одним мощным адаптером и 4-ядерным ЦП (а лучше двухъядерным), если ПК необходим в первую очередь для компьютерных игр. И окажется прав.

А мощные камни с поддержкой 44 линий PCI-E лучше приберечь для иных целей, уж точно не для раскрытия потенциала технологии NVIDIA SLI. Главный конек таких процессоров в наличии большого количества физических ядер, которые используются для сложных технических расчетов, а не для обработки картинки в современных играх.

Какую материнскую плату выбрать для двух видеокарт: конфигурации SLI и CrossFire

Заманчиво, спустя несколько лет, купить к своей имеющейся видеокарте аналогичною (на вторичном рынке, за дёшево) и получить удвоение производительности. К сожалению, это так не работает. В первую очередь из-за разработчиков, которые должны научить свои приложения работе с несколькими видеоадаптерами. Но даже если подобное реализовано, порой ограничения железа не позволяют использовать все преимущества данного подхода. Давайте рассмотрим возможные случаи.

Первое, и наиболее логичное — если Вы покупали блок питания «впритык» для текущего железа, придётся разориться ещё на один блок питания.

Второе — поддержка технологии материнскими платами . Как правило, на самых дешёвых чипсетах поддержка мульти-GPU отсутствует в принципе, на чипсетах среднего уровня есть возможность установить в паре карты от AMD (CrossFire), и лишь топовые чипсеты поддерживают установку двух карт от NVidia (SLI). В последнем случае, нужен ещё специальный соединительный мостик.

Третье — ограничение числа линий PCI Express у процессора и материнской платы. Этот момент не совсем очевиден, и поэтому остановимся на нём подробнее.

Как правило, процессоры мэйнстримовой линейки содержат 16 линий для соединения с видеокартой. Это и топовые Intel Core i7-8700K и AMD Ryzen 7 2700X, и более доступные Intel Core i3-8100 и Ryzen 3 1200. Таким образом, одна видеокарта подключается и целиком забирает эти линии.

Читать еще:  Как почистить драйвера видеокарты

А что происходит при подключении второй карты? Здесь нужно смотреть на режим работы, который указан в спецификации материнской платы. Часто встречается режим x16/x4. Это означает, что одна видеокарта работает на полной скорости (используются все линии процессора), а вторая использует линии чипсета. В итоге, фактическая скорость работы будет ограничена меньшим значением — x4. Про материнскую плату и видеокарты говорили здесь . Там же была информация про линии PCIe и пояснения по x4 и x16.

Ещё один возможный режим — x8/x8. Такая работа предпочтительнее по той причине, что скорость обмена через шину будет в 2 раза выше (относительно x4). Как правило, подобная разводка характерна для более дорогих видеокарт.

Так же встречаются варианты x16/x8, но мы уже выше упоминали, что фактически обе видеокарты будут работать в режиме x8.

Как видим, настольная платформа не очень хорошо приспособлена для связки из нескольких видеокарт.

Но есть решение — HEDT, они же высокопроизводительные рабочие станции. Это дорогие платформы для энтузиастов. AMD здесь представлена материнскими платами на сокете AM4, Intel — Socket 2066. Процессоры для этих разъёмов могут содержать большое число ядер (на данный момент до 18 у Intel и до 32 у AMD), и комплектуются большим числом линий PCI Express. Благодаря этому, связка из двух видеокарт свободно работает на полной скорости — x16/x16.

Мы уже разобрались, что необходима поддержка от разработчиков приложений. Теоретически, вторая видеокарта может дать +100% прироста производительности. Практический прирост ниже: до 60-70% в отдельных приложениях, и до 30-50% в оптимизированных играх.

Но решать, нужна ли вторая видеокарта, конечно Вам. В целом, гораздо лучше взять одну мощную видеокарту. Исключение — у Вас топовая видеокарта, но производительности недостаточно; в этом случае имеет смысл брать ещё одну карту.

Снижение проблемы масштабирования пообещали исправить в новой линейке видеокарт от NVidia .

Сообщается, что при объединении двух видеокарт с помощью NVLINK BRIDGE, будет не только складываться видеопамять (чего раньше не было), но и кратно масштабироваться производительность. К сожалению, младшая карта, где такое окажется возможным — GeForce RTX 2080. Напомню, что рекомендованная цена на это устройство — 64 000 рублей. А их нужно два, плюс соединительный мост, что приводит к ценнику 134 500 рублей.

К тому же неизвестно, какое реальное увеличение производительности нас ожидает — тестов пока нет. В общем, рассчитывать можно на лучшее, но выводы делать только после независимых тестов.

Сравнение производительности видеокарт в SLI и CrossFire (mGPU) под DirectX 11 и DirectX 12

Эта статья была задумана как дань старой традиции: нам хотелось полюбоваться дорогими системами с несколькими GPU, как это было в 2014 и 2016 годах, а потом мы готовились с разочарованием признать, что технологии SLI и CrossFire уже утратили всякую практическую ценность. Но вместо этого получилось своего рода продолжение наших недавних публикаций про API нового поколения (см. первую и вторую части исследования), ведь большинство игр из нашей тестовой методики поддерживают Direct3D 12. Под этим API пара видеокарт работают совсем по-иному, нежели в Direct3D 11, и нет никакого смысла ограничиваться сравнением под формально устаревшим, но все еще преобладающим интерфейсом Direct3D 11.

А что касается главного вопроса (осталась ли какая-то польза в SLI и CrossFire), то придется признать, что похороны двухадаптерных систем снова откладываются! Да, в связи со сменой API возникли новые проблемы, связанные и c реализаций Multi-Adapter в Direct3D 12, и с пропускной способностью шины PCI Express, и с пресловутой процессорозависимостью игр. Но, с другой стороны, именно Direct3D 12 несет в себе возможности для того, чтобы их преодолеть.

⇡#Мультиадаптерный рендеринг в Direct3D 11

Для начала признаем намеренную неточность в названии статьи, которую могли заметить читатели, следящие за состоянием дел в области игровой графики. Действительно, марка CrossFire ушла в отставку еще в прошлом году. Теперь AMD описывает мультиадаптерные системы термином mGPU, поскольку сфера использования CrossFire (как и NVIDIA SLI) ограничена Direct3D 11, а кто, как не AMD, больше всех приветствует переход к Direct3D 12. Тем не менее сама технология никуда не делась, и даже в настройках драйвера Radeon по-прежнему называется именно так.

В целом оба производителя дискретных GPU сейчас прохладно относятся к мультиадаптерному рендерингу. Это заметно по тому, как сократилось разнообразие конфигураций, в которых работают SLI и CrossFire. Пропали видеокарты на основе двух графических процессоров, без которых прежде не обходилось ни одно обновление архитектуры. Драйверы AMD и NVDIA официально поддерживают не больше двух GPU. А ведь в 2011 году мы тестировали связки из трех и четырех видеокарт класса GeForce GTX 580, и в то время игры могли вполне неплохо загрузить три ускорителя высшего эшелона. К тому же NVIDIA загнала SLI в самый верх своей продуктовой линейки: младшей видеокартой в серии GeForce 10, которая имеет разъемы SLI, является сравнительно мощный и дорогой ускоритель GeForce GTX 1070.

Конечно, именно мощные видеокарты, как правило, и устанавливают парами, а утраченная возможность использовать три или четыре графических процессора по большей части была полезна только для набора рекордных баллов в 3DMark. Но потеря интереса к SLI и CrossFire со стороны хозяев рынка видеокарт отражает общий застой этого направления, к которому привело несоответствие между сложностью технических задач и низким спросом со стороны рядовых геймеров.

В концептуальном плане рендеринг при помощи множественных GPU — это вполне очевидная идея, которая логически следует из высокого параллелизма вычислений, но на практике такие технологии всегда были довольно-таки капризны и требовали постоянного внимания со стороны драйверописателей. В рамках Direct3D 11 функцию разделения нагрузки между несколькими видеоадаптерами целиком выполняет драйвер. Игровой движок, как и в случае одиночного GPU, отдает команды общей очередью, а драйвер распределяет их так, чтобы, пока первый графический процессор создает свой кадр видеоряда, второй GPU занимается следующим кадром (метод AFR — Alternate Frame Rendering). Для полноты картины стоит заметить, что мультиадаптерный рендеринг не сводится к AFR. В редких случаях используется метод SFR (Split Screen Rendering), в котором каждый GPU обрабатывает свою часть единого кадра, а Direct3D 12 предусматривает и более сложные режимы, но о последнем — чуть позже.

В идеале процедура мультиадаптерного рендринга в Direct3D 11 прозрачна для игрового движка и не требует дополнительных усилий от его разработчиков, но на практике все совсем не так просто. При использовании метода AFR нужно считаться с ограничениями в тех ситуациях, когда существуют зависимости между последовательными кадрами, а это практически неизбежно в современных играх. Как следствие, адекватная работа мультиадаптерной системы возможна только при наличии профилей настроек для каждой конкретной игры, благодаря которым драйвер получает подсказки о том, чем занимается движок, а разработчикам игры — в идеале — нужно понимать, что пытается сделать драйвер. Полезно использовать и проприетарный API (такой как NVAPI для GPU NVIDIA), открывающий доступ к GPU в обход уровня абстракции Direct3D, но даже в идеальных условиях не от каждой игры можно добиться хорошего масштабирования быстродействия на нескольких адаптерах.

Свой вклад в эту проблему вносит и пресловутая «процессорозависимость»: графические чипы сейчас развиваются быстрее, нежели быстродействие CPU архитектуры x86 с небольшим числом потоков, и это заметно даже в конфигурациях с одной мощной видеокартой, не говоря уже о двух. Наконец, как мы раз за разом видим по результатам группового теста GPU в какой-нибудь популярной игре, единственный адаптер высшего эшелона, скорее всего, удовлетворит любого геймера. С другой стороны, и разница в качестве изображения между низкими и максимальными настройками качества графики уже не та, что в золотые времена SLI и CrossFire. В результате побуждение наращивать кадровую частоту любой ценой сошло на нет, а раз так, то какой смысл для людей, работающих над драйверами GPU, вкладывать усилия в нишевую технологию мультиадаптерного рендеринга? Пока работа продолжается (особенно со стороны NVIDIA), но с пришествием Direct3D 12 ситуация может полностью измениться — причем как в лучшую, так и в худшую сторону.

Читать еще:  Узнать модель видеокарты через командную строку

⇡#Мультиадаптерный рендеринг в Direct3D 12

Новый графический API Microsoft предусматривает два различных подхода к программированию мультиадаптерного рендеринга. В режиме Implicit Multi-Adapter задачу разделения работы между GPU выполняет драйвер — как в Direct3D 11, со всеми его плюсами и минусами. С другой стороны, в режиме Explicit Multi-Adapter ресурсами графических процессоров целиком распоряжается игровой движок, и это одновременно и благословение, и проклятие, ведь в таком случае все зависит от готовности разработчиков вкладывать силы в поддержку Multi-Adapter.

При должном старании программисты смогут извлечь из связки GPU быстродействие, принципиально недостижимое в предыдущей версии API. В частности, можно отказаться от AFR и применять сложные методы распределения нагрузки между адаптерами — такие как конвейеризация кадров (Frame Pipelining), при которой несколько GPU выполняют различные этапы рендеринга одного кадра, а проблема зависимостей между соседними кадрами отсутствует как таковая. Кроме того, конвейеризацию можно использовать в пользу качества рендеринга, а не частоты смены кадров. К примеру, загрузить второй GPU расчетом глобального освещения, трассировки лучей, физики и так далее.

У Explicit Multi-Adapter есть два метода реализации: Linked Node и Unlinked Node. Первый метод — это аналог SLI и CrossFire в рамках новой парадигмы мультиадаптерного рендеринга. Как и в этих проприетарных технологиях, работающих на уровне драйвера под Direct3D 11, здесь несколько адаптеров представлены общими очередями команд: графика, вычисления общего назначения и очередь Copy для передачи данных по шине PCI Express. Проще говоря, игра «видит» несколько адаптеров как один, а принадлежность команды определенному GPU определяется так называемой маской узла.

Direct3D 12 Linked Node

Linked Node имеет несколько важных достоинств. В первую очередь, подразумевается общая архитектура и производительность узлов, что существенно упрощает задачу балансировки нагрузки. Также Linked Node позволяет узлам напрямую обращаться к оперативной памяти друг друга, минуя системную RAM. Наконец, при рендеринге методом AFR возможна передача кадров «ведущему» узлу через интерфейсы, отличные от PCI Express (то есть мостики SLI, поскольку AMD давно избавилась от специализированной шины в CrossFire).

В свою очередь, в Unlinked Node каждый узел предоставляет собственный набор очередей инструкций и допускает максимально гибкое управление ресурсами GPU. В частности, возможны асимметричные конфигурации из адаптеров неодинаковой мощности и различной архитектуры. Вполне жизнеспособна даже комбинация устройств AMD и NVIDIA в одной системе. Не менее заманчива возможность увеличить быстродействие дискретной графики за счет встроенного в центральный процессор GPU, который сможет выполнять финальные стадии обработки кадра (фактически, это частный случай конвейеризации кадров, и он не требует тщательной балансировки нагрузки, неизбежной в асимметричных связках GPU).

Переход графических адаптеров в Linked Node осуществляется на уровне драйвера, а для пользователя — включением опции SLI или CrossFire в настройках. Тем не менее не всякая игра сможет использовать адаптеры в Linked Node или, напротив, Unlinked Node. К примеру, Ashes of the Singilarity требует активации Unlinked Node, а остальные из наших тестов работают только в режиме Linked.

Direct3D 12 Unlinked Node

Чтобы получить Linked Node под Direct3D 12 на видеокартах NVIDIA, нужно связать их мостиком, иначе драйвер просто не даст включить SLI. Как сказано выше, Direct3D 12 позволяет использовать мостики по назначению в связанном режиме, но мы проверили: ни в одной из тестовых игр нет разницы по кадровой частоте между современным мостом HB SLI Bridge и простым гибким мостиком, которая в противном случае обязательно бы возникла. С одной стороны, это проблема, ведь мостик обеспечивает необходимую пропускную способность для передачи кадров между GPU в обход шины PCI Express даже в таких тяжелых режимах, как 4К. С другой, жесткие мостики с подсветкой, которые способны работать в двухканальном режиме и на повышенной частоте, — дорогое удовольствие, а в Direct3D 12 можно обойтись копеечным гибким интерфейсом.

Какую материнскую плату выбрать для двух видеокарт: конфигурации SLI и CrossFire

Заманчиво, спустя несколько лет, купить к своей имеющейся видеокарте аналогичною (на вторичном рынке, за дёшево) и получить удвоение производительности. К сожалению, это так не работает. В первую очередь из-за разработчиков, которые должны научить свои приложения работе с несколькими видеоадаптерами. Но даже если подобное реализовано, порой ограничения железа не позволяют использовать все преимущества данного подхода. Давайте рассмотрим возможные случаи.

Первое, и наиболее логичное — если Вы покупали блок питания «впритык» для текущего железа, придётся разориться ещё на один блок питания.

Второе — поддержка технологии материнскими платами . Как правило, на самых дешёвых чипсетах поддержка мульти-GPU отсутствует в принципе, на чипсетах среднего уровня есть возможность установить в паре карты от AMD (CrossFire), и лишь топовые чипсеты поддерживают установку двух карт от NVidia (SLI). В последнем случае, нужен ещё специальный соединительный мостик.

Третье — ограничение числа линий PCI Express у процессора и материнской платы. Этот момент не совсем очевиден, и поэтому остановимся на нём подробнее.

Как правило, процессоры мэйнстримовой линейки содержат 16 линий для соединения с видеокартой. Это и топовые Intel Core i7-8700K и AMD Ryzen 7 2700X, и более доступные Intel Core i3-8100 и Ryzen 3 1200. Таким образом, одна видеокарта подключается и целиком забирает эти линии.

А что происходит при подключении второй карты? Здесь нужно смотреть на режим работы, который указан в спецификации материнской платы. Часто встречается режим x16/x4. Это означает, что одна видеокарта работает на полной скорости (используются все линии процессора), а вторая использует линии чипсета. В итоге, фактическая скорость работы будет ограничена меньшим значением — x4. Про материнскую плату и видеокарты говорили здесь . Там же была информация про линии PCIe и пояснения по x4 и x16.

Ещё один возможный режим — x8/x8. Такая работа предпочтительнее по той причине, что скорость обмена через шину будет в 2 раза выше (относительно x4). Как правило, подобная разводка характерна для более дорогих видеокарт.

Так же встречаются варианты x16/x8, но мы уже выше упоминали, что фактически обе видеокарты будут работать в режиме x8.

Как видим, настольная платформа не очень хорошо приспособлена для связки из нескольких видеокарт.

Но есть решение — HEDT, они же высокопроизводительные рабочие станции. Это дорогие платформы для энтузиастов. AMD здесь представлена материнскими платами на сокете AM4, Intel — Socket 2066. Процессоры для этих разъёмов могут содержать большое число ядер (на данный момент до 18 у Intel и до 32 у AMD), и комплектуются большим числом линий PCI Express. Благодаря этому, связка из двух видеокарт свободно работает на полной скорости — x16/x16.

Мы уже разобрались, что необходима поддержка от разработчиков приложений. Теоретически, вторая видеокарта может дать +100% прироста производительности. Практический прирост ниже: до 60-70% в отдельных приложениях, и до 30-50% в оптимизированных играх.

Но решать, нужна ли вторая видеокарта, конечно Вам. В целом, гораздо лучше взять одну мощную видеокарту. Исключение — у Вас топовая видеокарта, но производительности недостаточно; в этом случае имеет смысл брать ещё одну карту.

Снижение проблемы масштабирования пообещали исправить в новой линейке видеокарт от NVidia .

Сообщается, что при объединении двух видеокарт с помощью NVLINK BRIDGE, будет не только складываться видеопамять (чего раньше не было), но и кратно масштабироваться производительность. К сожалению, младшая карта, где такое окажется возможным — GeForce RTX 2080. Напомню, что рекомендованная цена на это устройство — 64 000 рублей. А их нужно два, плюс соединительный мост, что приводит к ценнику 134 500 рублей.

К тому же неизвестно, какое реальное увеличение производительности нас ожидает — тестов пока нет. В общем, рассчитывать можно на лучшее, но выводы делать только после независимых тестов.

Ссылка на основную публикацию
Adblock
detector