РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Intel создал технологию универсального «мультивидеоадаптера»

Поскольку все крупные IT-мероприятия — выставки, презентации и конференции — отменены, компании представляют свои наработки в форме онлайн-трансляций или вовсе просто выкладывая приготовленные ранее материалы в публичный доступ. Так поступил и Intel, в одном из роликов на своем YouTube-канале рассказавший о довольно интересном способе объединить вычислительные мощности видеокарты и встроенного в процессор видеоядра — технологии Multi-Adapter.
Тэги:
Intel создал технологию универсального «мультивидеоадаптера»

Само собой, идея не новая: подобная разработка была и у главного конкурента — AMD, но она работала только с фирменными чипами и дискретными видеоадаптерами (GPU), да и особого успеха не снискала. Тем не менее, постепенно проигрывая битву за сердца и кошельки клиентов, Intel планирует в этом году знатно отыграться. Во-первых, в скором времени на рынке появится полноценная видеокарта DG1 от этого производителя. А во-вторых, в помощь к грядущей новинке была представлена технология объединения GPU и встроенного в процессор видеоядра (такие чипы называются APU).

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Использование нескольких графических процессоров одновременно возможно давно и необходимый код присутствует в библиотеках DirectX и OpenGL. Проблема в сфере и стратегии применения. Всего существует три варианта: последовательная обработка кадров двумя видеоадаптерами, передача одному из адаптеров задач по обработке вычислительных шейдеров и асинхронное распределение вычислений разного типа (тени, ИИ, физика объектов и тому подобное). В первом случае встроенное видеоядро недостаточно мощное, чтобы обсчитывать кадры наравне с внешней видеокартой, поэтому итоговая картинка будет очень сильно «скакать», так что данный вариант не рассматривается.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
Intel представил технологию Multi-Adapter, позволяющую объединять любые видеокарты со встроенным в фирменные процессоры компании видеоядром
Основной бонус от такого подхода заключается в следующем. Обычно, чтобы координировать свои действия несколько видеоадаптеров должны использовать общую память (оперативную или часть графической) и синхронизировать ее. На это затрачивается немало ресурсов, что и не позволяет никогда увидеть двукратный рост производительности в тандемных сборках GPU. Для видеоадаптера оперативная память процессора является и собственной графической, так что его "затраты" на синхронизацию едва ли не вполовину меньше — нет нужды в промежуточном буфере
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

А вот передача «на откуп» APU части шейдеров (специфических микропрограмм обработки графики или вычислений на GPU) и даже распределение различных «побочных» задач графического процессора — перспективное направление. Благодаря относительно проторенной дороге, инженерам Intel не потребовалось изобретать сверхсложные программные комплексы и демонстрационный код работает практически на любой современной системе. На GitHub есть упоминания связок Intel HD Graphics 530 и AMD Radeon RX 480, а также HD 630 и NVidia GeForce RTX 2080 Ti, а в видео — HD 630 и Radeon RX 580. То есть модель внешнего видеоадаптера практически не важна.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Стоит отметить, что на данный момент производительность такого решения не оценивается, это лишь демонстрация технологии. Возможно, раз первый блин почти всегда комом, Intel собирается с помощью Multi-Adapter компенсировать некоторое отставание своей новой видеокарты в части вычислительной мощности от аналогов AMD и NVidia. В любом случае, подобный подход может быть весьма полезен в различных компьютерах, не оснащенных самыми мощными GPU — среднебюджетных ноутбуках, например.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
youtube
Нажми и смотри
Нажми и смотри
Загрузка статьи...