深入浅出带你玩转机器学习加速(附超全资料+PPT)
来源:新智元
本文共多图,建议阅读8分钟。
本课程将深入介绍用于在机器学习系统中设计训练和推理加速器的架构技术。
[ 导读 ]学芯片技术的机会来了!斯坦福大学2018秋季学期推出《机器学习硬件加速器》课程,深入介绍机器学习系统中设计训练和推理加速器的架构技术。课程涵盖经典的ML算法,用于ML模型推理和训练的加速器设计等,超多专业材料和PPT,是本领域不可多得的专业课程。
本课程将深入介绍用于在机器学习系统中设计训练和推理加速器的架构技术。本课程将涵盖经典的ML算法,如线性回归和支持向量机,以及DNN模型,如卷积神经网络和递归神经网络。我们将考虑这些模型的训练和推理,并讨论诸如batch size、精度、稀疏度和压缩等参数对这些模型精度的影响。
我们将介绍用于ML模型推理和训练的加速器设计。学生将熟悉使用并行性、局部性和低精度来实现ML中使用的核心计算内核的硬件实现技术。为了设计高效节能的加速器,学生们将建立直觉,在ML模型参数和硬件实现技术之间进行权衡。学生将阅读最近的研究论文并完成一个设计项目。
主讲教师
- Kunle Olukotun
Kunle Olukotun是斯坦福大学电气工程和计算机科学的Cadence设计系统教授,自1991年以来一直在该系任教。Olukotun以领导Stanford Hydra研究项目而著名,该项目开发了首批支持thread-level speculation的芯片多处理器。
- Ardavan Pedram
Ardavan Pedram是斯坦福大学电气工程系研究助理,与Kunle Olukotun教师合作的Pervasive Prallelism Laboratory (PPL) 项目的成员。
特邀讲师
课程安排和阅读材料
第1课:简介,摩尔定律和Dennard Scaling定律后硬件加速器的作用
阅读材料:
- 暗硅(Dark Silicon)有用吗? Hennessy Patterson第7.1-7.2章:
https://ieeexplore.ieee.org/document/6241647/
第2课:经典ML算法:回归、SVM
阅读材料:
- TABLA:基于统一模板的加速统计机器学习的架构:
https://www.cc.gatech.edu/~hadi/doc/paper/2015-tr-tabla.pdf
第3课:线性代数基础和加速线性代数BLAS运算
20世纪的技术:收缩阵列和MIMD,CGRAs
阅读材料:
- 为什么选择收缩架构?
www.eecs.harvard.edu/~htk/publication/1982-kung-why-systolic-architecture.pdf
- 高性能GEMM的剖析:
https://www.cs.utexas.edu/users/pingali/CS378/2008sp/papers/gotoPaper.pdf
第4课:评估性能、能效、并行性,局部性、内存层次,Roofline模型
阅读材料:
- Dark Memory and Accelerator-Rich System Optimization in the Dark Silicon Era:
https://arxiv.org/abs/1602.04183
第5课:真实世界的架构:将其付诸实践
加速GEMM:定制,GPU,TPU1架构及其GEMM性能
阅读材料:
- Google TPU:
https://arxiv.org/pdf/1704.04760.pdf
- Codesign Tradeoffs:
https://ieeexplore.ieee.org/document/6212466/
- NVIDIA Tesla V100:
images.nvidia.com/content/volta-architecture/pdf/volta-architecture-whitepaper.pdf
第6课:神经网络:MLP和CNN推理
阅读材料:
- IEEE proceeding
- Brooks’s book (Selected Chapters)
第7课:加速CNN的推理:实践中的阻塞(Blocking)和并行(Parallelism)
DianNao, Eyeriss, TPU1
阅读材料:
- 一种阻塞卷积神经网络的系统方法:
https://arxiv.org/abs/1606.04209
- Eyeriss:用于卷积神经网络的节能数据流的空间架构
https://people.csail.mit.edu/emer/papers/2016.06.isca.eyeriss_architecture.pdf
- Google TPU (see lecture 5)
第8课:使用Spatial建模神经网络,分析性能和能量
阅读材料:
- Spatial:一种应用程序加速器的语言和编译器:
http://arsenalfc.stanford.edu/papers/spatial18.pdf
第9课:训练:SGD,反向传播,统计效率,batch size
阅读材料:
- 去年的NIPS workshop:Graphcore
https://supercomputersfordl2017.github.io/Presentations/SimonKnowlesGraphCore.pdf
第10课:DNN的弹性:稀疏性和低精度网络
阅读材料:
- EIE:压缩深度神经网络的高效推断机(Efficient Inference Engine):
https://arxiv.org/pdf/1602.01528.pdf
- Flexpoint of Nervana:
https://arxiv.org/pdf/1711.02213.pdf
- Boris Ginsburg: 卷积网络的Large Batch训练
https://arxiv.org/abs/1708.03888
- LSTM Block Compression by Baidu?
第11课:低精度训练
阅读材料:
- HALP:High-Accuracy Low-Precision Training:
https://arxiv.org/abs/1803.03383
- Ternary or binary networks
第12课:分布式和并行系统训练:Hogwild!,异步和硬件效率
阅读材料:
- Deep Gradient compression:
https://arxiv.org/abs/1712.01887
- Hogwild!:一种并行化随机梯度下降的Lock-Free 方法
https://people.eecs.berkeley.edu/~brecht/papers/hogwildTR.pdf
- 大规模分布式深度网络:
https://static.googleusercontent.com/media/research.google.com/en//archive/large_deep_networks_nips2012.pdf
第13课:FPGA和CGRAs:Catapult,Brainwave, Plasticine
阅读材料:
- Catapult:
https://www.microsoft.com/en-us/research/wp-content/uploads/2016/10/Cloud-Scale-Acceleration-Architecture.pdf
- Brainwave:
https://www.microsoft.com/en-us/research/uploads/prod/2018/03/mi0218_Chung-2018Mar25.pdf
- Plasticine:
dawn.cs.stanford.edu/pubs/plasticine-isca2017.pdf
第14课:ML基准:DAWNbench,MLPerf
阅读材料:
- DawnBench:
https://cs.stanford.edu/~matei/papers/2017/nips_sysml_dawnbench.pdf
- MLPerf:
https://mlperf.org/
第15课:Project presentations
更多阅读材料:
https://cs217.github.io/readings
课程PPT:
https://cs217.github.io/lecture_slides
第一课对深度学习的发展、摩尔定律、Dennard Scaling、相关理论方法等做了较为详尽的介绍,非常干货,下面附上第一课的PPT。
深度学习的挑战:深度学习存在理论吗?
秋季课程视频还没放出,敬请关注课程网站:
cs217.github.io