Еще в 2017 году Интел рассказывали о собственных планах на разработку микросхем для искусственного интеллекта. Конечно, разработки только начались, выхода ожидали новенькие Intel Xeon Phi и серверная линейка Scalable. В общем, выпуск микросхемы был отсрочен.

Но на CES 2019 Intel Nervana был представлен, конечно, пока что тестовые модели есть только в лабораториях. Дата выхода не названа, только сказали, что запустят производство в этом году. Но не забыли и хорошо.

Что это такое?

Итак, Intel Nervana (NNP-L1000) нейросетевой процессор, предназначенный для логической обработки и вывода данных при работе с искусственным интеллектом. Форм-фактор будет напоминать упомянутые Phi или видеокарты.

Построят микросхему на основе 10-нанометрового процессора Intel с ядром Ice Lake, который будет выполнять общие операции и ускорять работу нейронной сети. Также будет ряд существенных изменений:

  1. Отсутствует стандартная иерархия кэша. Встроенная память будет управляться непосредственно программным обеспечением.

  2. Высокоскоростные связующие звенья. Это позволит распределять параметры НС по нескольким микросхемам, повышая качество параллелизации.

  3. Новая числовая форма — Flexpoint. Она позволит в полной мере работать со скалярными произведениями, это позволит проводить умножение, сложение с фиксированной запятой с еще большей скоростью.

 

Чего стоит ждать?

В 2017 году Intel обещала 100-кратный прирост к скорости обучения AI, но стоит ли верить этим заявлениям? Ну, скорее всего, было давно и неправда, лучше поделить столь крупное число на 10.

По крайней мере, в планах Intel сделать так, чтобы несколько физических чипов действовали словно один большой виртуальный. Подобный подход должен позволить увеличить скрость вычислений на одном кристалле и, соответственно, сократит время, которое потребуется затратить на глубокое обучение.

По крайней мере, Интел пытается занять большую часть рынка искусственного интеллекта, скупили многие стартапы, связанные с данной темой, потому, вполне возможно, что результат получится неплохой и полезный.

Intel Nervana NNP-L1000 с кодовым названием Spring Crest.

UPD

Итак, появились дополнительные данные о тестовой модели нейросетевого процессора.

В операциях общего матричного умножения с использованием матриц размером A (1535, 2048) и B (2048, 1536) получили скорость 38 Тфлопс при использовании вычислительных ресурсов на 96,4%.

Также при использовании параллельного обучения можно реализовать линейное масштабирование для матричных таблиц размером A (6144, 2048) и B (2048, 1536) при соединении нескольких нейросетевых процессоров. Протестировано это было с помощью теста General Matrix to Matrix Multiplication (GEMM).

Конечно, Nvidia Tesla V100 способна дать до 120 Тфлопс, но Intel выпустила пока что только тестовую модель с TDP 210 Вт. К тому же, в планах компании собственные графические ускорители и линейка новых процессоров, которые в связке смогут дать прекрасный результат, так что, похоже, предстоит посмотреть на занимательное соревнование с Nvidia, которые прочно заняли рынок машинного обучения.

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *