当前位置: 首页> 学位论文 >详情
原文传递 基于Soft Actor-Critic算法的电动汽车复合储能系统能量管理策略研究
论文题名: 基于Soft Actor-Critic算法的电动汽车复合储能系统能量管理策略研究
关键词: 电动汽车;能量管理;复合储能系统;深度强化学习;SoftActor-Critic算法
摘要: 在碳达峰、碳中和的“双碳”目标以及石油等不可再生能源面临枯竭的危机下,发展节能与新能源汽车是大势所趋。纯电池电动汽车目前因电池功率密度、使用寿命等限制,难以满足实际使用需求。由锂电池和超级电容组合而成的复合储能系统,可实现优势互补,其在快速功率响应的同时拥有较高的能量密度以进一步延长续航里程。然而,超级电容的加入增加了动力系统的复杂性,需考虑如何协调二者以更好地满足车辆行驶的功率需求以及节能等优化目标。能量管理的目的主要是解决多动力源的动力分配问题以实现节能减排。近年来,深度强化学习算法逐渐被应用到能量管理领域中,并获得了较好的效果。因此,本文以2014款BMWi3(电动版)和替换的复合储能系统为研究对象,基于Matlab/Simulink应用深度强化学习中的SoftActor-Critic(SAC)算法设计了一种能量管理策略,并以此展开了如下研究工作:
  (1)复合储能系统结构选择、部件选型及建模。首先,经分析后选择了系统拓扑结构,并配置了相关参数;其次,分析、建立了车辆各部件的数学模型;最后,提出了最小化系统能量损失的能量管理问题。
  (2)基于SAC算法的能量管理策略设计及性能提升。首先,对SAC算法的原理展开了深入研究;其次,设计了策略的奖励函数和神经网络结构等关键元素;最后,在策略设计和训练中加入了并行计算等技巧以提升其控制效果和训练收敛性。
  (3)策略训练结果比较及适应性验证。首先,对基于SAC算法的策略进行了训练设计,并改善了训练数据集以提升其工况适应性;其次,比较分析了策略优化效果等性能。结果表明,相较于基于DeepQ-network(DQN)和基于DeepDeterministicPolicyGradient(DDPG)算法的策略,基于SAC算法的策略在最小化系统能量损失上分别提升了8.75%和6.09%,并缩小了与基于动态规划算法的最优策略的差距至5.19%,此外,基于SAC算法策略的收敛速度相较于同样基于Actor-Critic框架的DDPG算法策略提升了205.66%;最后,对基于SAC算法的策略进行了工况适应性验证。结果表明,基于SAC算法的策略在控制效果上均优于基于DQN和基于DDPG算法的策略,且最大减少了32.24%的能量损失。
  以最小化系统能量损失为研究目标,开展了基于SAC算法策略的建模、策略设计、性能提升和验证等研究。从训练结果和验证结果两方面的比较分析说明了所设计策略在控制效果、收敛性和工况适应性等方面的优秀性能。
作者: 许德州
专业: 机械工程
导师: 李艾民;郑春花
授予学位: 硕士
授予学位单位: 中国矿业大学(江苏)
学位年度: 2022
检索历史
应用推荐