摘要:
提出一种基于语法的代码生成模型, 该模型具有选择性局部注意力和包含前序信息的长短期记忆(LSTM)神经网络解码器, 通过更改上下文向量的计算范围, 并在解码过程中融合更多的前序信息, 增强单词之间的相关性。在Hearthstone和Django两个数据集上进行的代码生成实验证实了所提模型的有效性, 与最新的模型相比, 所提模型不仅表现出更出色的准确率和双语评估学习成绩, 还可以使计算工作量最小化。
梁婉莹, 朱佳, 吴志杰, 颜志文, 汤庸, 黄晋, 余伟浩. 具有选择性局部注意力和前序信息解码器的代码生成模型[J]. 北京大学学报自然科学版, 2021, 57(1): 45-52.
LIANG Wanying, ZHU Jia, WU Zhijie, YAN Zhiwen, TANG Yong, HUANG Jin, YU Weihao. Syntax-based Code Generation Model with Selective Local Attention and Pre-order Information LSTM Decoder[J]. Acta Scientiarum Naturalium Universitatis Pekinensis, 2021, 57(1): 45-52.