摘要:
提出一种基于知识蒸馏的脉冲神经网络(SNN)强化学习方法SDN。该方法利用 STBP 梯度下降法, 实现深度神经网络(DNN)向SNN 强化学习任务的知识蒸馏。实验结果表明, 与传统的SNN强化学习和DNN强化学习方法相比, 该方法可以更快地收敛, 能获得比 DNN参数量更小的SNN强化学习模型。将SDN部署到神经形态学芯片上, 证明其功耗比DNN低, 是高性能的SNN强化学习方法, 可以加速SNN强化学习的收敛。
张领, 曹健, 张袁, 冯硕, 王源. 基于知识蒸馏的脉冲神经网络强化学习方法[J]. 北京大学学报自然科学版, 2023, 59(5): 757-763.
ZHANG Ling, CAO Jian, ZHANG Yuan, FENG Shuo, WANG Yuan. Reinforcement Learning of Spiking Neural Network Based on Knowledge Distillation[J]. Acta Scientiarum Naturalium Universitatis Pekinensis, 2023, 59(5): 757-763.