cps-16-mic

Ускорение обучения глубокой нейронной сети путем оптимизации алгоритма для запуска на MIC архитектуре
git clone https://git.igankevich.com/cps-16-mic.git
Log | Files | Refs

annotation.txt (2434B)


      1 Ускорение обучения глубокой нейронной сети путем оптимизации алгоритма для запуска на MIC архитектуре
      2 
      3 Глубокие нейронные сети позволяют получить высокую точность распознавания, но требуют больших вычислительных мощностей и временных затрат в процессе обучения. Второе связано с тем, что алгоритм обучения является итертивным.
      4 Целью исследования является изучение эффективности решения данной задачи на MIC архитектуре без изменения базового алгоритма.
      5 Для повышения эффективности работы программы на MIC архитектуре были использованы приемы векторизации и распараллеливания кода.
      6 В процессе исследования были опробованы 2 модели передачи данных на сопроцессор: явная и неявная и проведено сравнение их эффективности. Рассмотрены причины, влияющие эффективность распараллеливания данной задачи. MIC архитектура показала показала производительность, сравнимую с многоядерным процессором.
      7 
      8 Speedup of deep neural network learning on the MIC-architecture
      9 
     10 Deep neural networks are more accurate, but require more computational power in the learning process. Moreover, it is an iterative process. The goal of the research is to investigate  efficiency of solving this problem on MIC architecture without changing baseline algorithm. Well-known code vectorisation and parallelisation methods are used to increase the effectiveness of the program on MIC architecture. In the course of the experiments we test two coprocessor data transfer models: explicit and implicit one. We show that implicit memory copying is more efficient than explicit one, because only modified memory blocks are copied. MIC architecture shows competitive performance compared to ordinary multi-core processor.