Intel Ice Lake уходит в нирвану: представлен ускоритель нейронных сетей с функцией принятия решений
Как сообщают наши коллеги с сайта Tom’s Hardware Guide, на мероприятии Israeli Development Center (IDC) Day в Хайфе компания Intel под брендом Nervana представила новые ускорители нейронных сетей. Речь идёт об ускорителе Nervana Neural Network Processor for Inference (NNP-I). Очевидно, это то решение, над которым Intel вместе работает с компанией Facebook. В начале января 2019 года на CES 2019 компании сообщили, что создают высокоэффективный чип для ускорения нейронных сетей с функцией принятия решений. Это важная составляющая платформ с машинным обучением и функциями искусственного интеллекта. Она не такая ресурсоёмкая, как обучение и может быть сравнительно легко делегирована периферийным устройствам. Но без функции принятия решений ни одна модель машинного обучения не стоит выеденного яйца.
Оказалось, что Nervana Neural Network Processor for Inference - это модифицированный 10-нм процессор поколения Ice Lake. Часть вычислительных ядер из него выброшены (вероятно, два из четырёх доступных), а вместо них и встроенного GPU (который тоже модифицирован либо ликвидирован) на кристалле размещены специализированные ИИ-блоки и универсальные цифровые сигнальные процессоры (DSP). Максимальное потребление NNP-I осталось на прежнем уровне 28 Вт, но появилось иное ограничение. Оно связано с выбранным для NNP-I вариантом изготовления, что оказалось очень интересным.
Компания Intel приняла решение выпускать модули Nervana с модифицированными Ice Lake в формфакторе карт M.2. Спецификациями разъём и формфактор M.2 предназначены не только для SSD-накопителей, хотя именно они тотально выпускаются в таком виде. В формфакторе M.2 можно выпускать любую периферию с интерфейсом PCIe, например, сотовые модемы. Или ускорители NNP-I, как решили в Intel. Актуальные спецификации M.2 не разрешают использовать питание с потреблением свыше 15 Вт, что ограничит производительность NNP-I при подключении к соответствующим разъёмам на материнской плате. Зато такого ограничения не будет, если в полноценный слот PCI Express на материнской плате через расширитель установить несколько NNP-I в формфакторе NNP-I.
Ожидается, что поставщики облачных услуг получат NNP-I и необходимый инструментарий до конца текущего года. Можно ожидать, что компания Facebook станет первой из них.