摘要:
针对自动驾驶强化学习(RL)在复杂场景中直接训练面临样本效率低下、收敛困难的问题, 提出一种基于统一数据表征的跨仿真代理构建方法, 并在此基础上实现DrivingGym训练环境。该方法将状态输入抽象为传感器、状态和路网3个层面, 通过动作适配器实现不同仿真环境的控制接口统一。在CARLA和Metadrive等常用仿真平台上的实验结果表明, 该方法能够支持RLlib和Stable-Baselines3等主流强化学习框架进行训练, 并实现简单环境到复杂环境跨仿真的自动驾驶策略应用。
聂子力, 李俊泽, 陈敬宇, 董乾, 薛云志. DrivingGym: 面向自动驾驶的跨仿真强化学习代理构建方法[J]. 北京大学学报(自然科学版), 2026, 62(2): 253-265.
NIE Zili, LI Junze, CHEN Jingyu, DONG Qian, XUE Yunzhi. DrivingGym: Building Cross-Simulation Reinforcement Learning Agent for Autonomous Driving[J]. Acta Scientiarum Naturalium Universitatis Pekinensis, 2026, 62(2): 253-265.