Огляд архітектур прискорювачів для глибоких нейронних мереж - ScienceDirect

Нещодавно, завдяки наявності великих даних та швидкому зростанню обчислювальних потужностей, штучний інтелект (ШІ) повернув колосальну увагу та інвестиції. Підходи до машинного навчання (ML) успішно застосовуються для вирішення багатьох проблем в наукових колах та в промисловості. Хоча вибух додатків для великих даних є рушієм розвитку ML, він також накладає серйозні проблеми на швидкість обробки даних та масштабованість звичайних комп'ютерних систем. Були розглянуті обчислювальні платформи, спеціально розроблені для додатків ШІ, починаючи від доповнення до платформ фон Неймана і закінчуючи «обов'язковим» та самостійним технічним рішенням. Ці платформи, які належать до більшої категорії з назвою «обчислювальні ресурси для конкретного домену», зосереджуються на конкретних налаштуваннях для ШІ. У цій статті ми зосереджуємося на узагальненні останніх досягнень конструкцій прискорювачів для глибоких нейронних мереж (DNN) - тобто прискорювачів DNN. Ми обговорюємо різні архітектури, які підтримують виконання DNN з точки зору обчислювальних одиниць, оптимізації потоку даних, цільових мережевих топологій, архітектур нових технологій та прискорювачів для нових програм. Ми також надаємо своє бачення майбутньої тенденції дизайну мікросхем ШІ.

огляд

Попередній стаття у випуску Далі стаття у випуску