2. 建筑大数据智能处理方法研究北京市重点实验室,北京 100044;
3. 北京兴创置地房地产开发有限公司,北京 102600
2. Beijing Key Laboratory of Intelligent Processing for Building Big Data, Beijing 100044, China;
3. Beijing Xingchuang Land Real Estate Development Co., Ltd, Beijing 102600, China
地铁站作为实现城市轨道交通功能性的必要环节, 对人们的日常生活具有重要意义. 近年来, 随着众多地铁站的快速建设、运营, 其相应的能耗也迅速增长, 能耗问题日益凸显. 其中, 暖通空调(heating, ventilation and air conditioning, HVAC)系统是主要的能耗来源, 约占车站总能耗的40%以上, 仅次于列车牵引系统[1].
地铁站空调系统的设备一般按照远期高峰小时运行情况进行配置, 在运行初中期, 客流及行车对数远没有达到设计水平, 因此设备选型有较大的富余量, 导致能源浪费. 此外, 目前国内大部分地铁站仍然依赖用于低层设备的PID调节器, 以及用于高层监控系统的基于规则的控制方案[2]. PID控制方法存在参数设定和调试困难的问题, 在空调系统负荷和工况发生变化时极易产生振荡, 控制效果不佳. 基于规则的控制方法是指根据地铁运行时刻表对各设备采取固定模式的变频技术, 该方法存在无法根据实际负荷需求实时调整控制参数的问题, 不仅会消耗更多能源, 还会使得夏季地铁站台温度偏低, 造成人员舒适性差. 另一方面, 目前地铁站空调通常对风系统和水系统单独进行控制, 而风系统与水系统之间存在耦合关系, 单独控制难以实现系统精准节能, 也很难保证人员的舒适性要求. 要降低地铁站空调系统的运行能耗, 就必须在保证车站舒适度的前提下采取合理可行的节能控制方案.
已有研究表明, 智能控制方法具有自适应、自学习和自协调能力, 能够提升空调系统的性能和节能效果. 其中, 强化学习(reinforcement learning, RL)[3]中的智能体通过与环境之间的直接交互最大化奖励信号, 能够实现复杂系统的全局优化控制, 是充分发挥空调系统节能潜力的有效方法之一.
近年来, 多位学者研究了基于强化学习的空调系统节能控制方法. 戴小燕等[4]提出了一种基于蒙特卡罗算法的物联网架构云端数据中心的空调系统节能控制策略, 在保证人员舒适度的前提下, 经测试可实现15 %~20 %的节能率. 闫军威等[5]选取离散化的冷冻水出水温度和冷冻泵频率作为控制变量, 利用Double-DQN算法实现了中央空调系统的节能优化运行. Yuan等[6]将基于规则的控制算法与基于RL的控制算法相结合, 应用于变风量空调系统运行优化. 结果表明, RL控制器在空调系统的舒适性和能耗方面表现更好, 与基于规则和PID策略相比, 系统的总能耗分别降低了7.7 %和4.7 %. Dalamagkidis等[7]采用无模型强化学习方法控制通风风扇速度和窗户开启程度, 实验结果表明, 该策略取得了比开关控制和模糊PD控制器更好的性能.
从以上研究成果看, 应用强化学习方法控制地铁站空调系统可以有效提升系统的节能效果, 不过目前还有两个问题有待解决: 1)基于无模型的强化学习方法在线训练智能体的收敛时间较长, 例如文献[7]的训练时间达到48个月. 为解决这一问题, 本文获取武汉某地铁站空调系统一年的运行数据, 采用神经网络建立系统模型, 将其作为离线训练强化学习智能体的模拟环境, 以缩减智能体训练时间. 2)地铁站空调系统的状态空间和动作空间都是多维连续的, 然而目前大多数相关研究只处理参数空间有限的问题, 且只针对单个离散控制变量产生控制律, 这限制了它们对复杂系统控制的适用性. 针对这一问题, 本文提出了基于多步预测的深度确定性策略梯度(deep deterministic policy gradient, DDPG)算法, 对地铁站空调风系统和水系统进行全局优化控制. DDPG算法可以适应多维连续动作空间的系统, 同时对传统DDPG算法进行改进, 基于多步预测, 使智能体择优更新参数, 提升了算法的学习效率. 此外, 利用邻近训练过程中总奖励值的变化趋势设置智能体训练终止条件, 进一步减少算法的训练时间. 最后, 以武汉某地铁站的空调系统为研究对象, 以满足站台温度需求和降低系统整体能耗为目标, 将空调水系统和风系统视为一个整体, 基于系统实际运行数据设计智能体训练方法, 进行仿真实验. 结果表明, 所提出控制策略与传统DDPG算法相比, 智能体训练次数减少86次, 且能够在系统负荷变化的情况下使系统稳定运行, 满足车站温度需求, 同时与目前实际工程中的运行系统相比, 节能约17.908 %.
1 系统描述 1.1 研究对象地铁站空调系统由大系统(末端风系统)、小系统和水系统构成, 3部分组成一个有机的整体, 共同作用完成车站环境参数的调节. 大系统为车站公共区的通风空调系统, 其服务区域为车站站厅和站台, 主要用于维持温度、湿度和二氧化碳浓度在所要求的区间范围内, 以满足乘客过渡性舒适需求. 小系统的服务区域为车站辅助功能用房, 包括车站管理用房及设备用房, 主要负责提供舒适的人员工作环境和适宜的设备运行条件. 与大系统相比, 小系统承担的服务面积和系统负荷较小, 其能耗低, 节能空间较小. 水系统为车站组合空调机组完成热交换过程提供冷源, 从而实现地铁站的温度调节.
鉴于小系统节能空间较小, 本文以大系统和水系统为被控对象, 研究基于强化学习的地铁站空调系统节能控制策略. 整个被控对象包括水系统的冷水机组、冷冻泵、冷却泵和冷却塔, 以及大系统末端风机, 系统示意图如图 1所示.
|
图 1 地铁站空调系统示意图 |
地铁站空调系统的主要能耗设备包括冷水机组、冷冻水泵、冷却水泵、冷却塔风机和末端风机. 其中, 末端风机和冷水机组是最主要的耗能设备, 二者共占据约80 %的能耗, 冷冻水泵、冷却水泵和冷却塔占据约20 %的能耗.
地铁站空调系统的控制目标是在满足地铁站台温度需求的前提下尽可能节约能源, 使空调系统能效比EER (energy efficiency ratio)值达到最大. EER值越高, 表示空调系统能够在消耗越少的电能情况下提供越多的冷量. 空调系统能效比EER计算为
| $ \begin{align} \mathrm{EER}=Q_{\mathrm{ch}} / P_{\text {total }}. \end{align} $ | (1) |
其中:
| $ \begin{align} P_{\text {total }}=P_{\text {chiller }}+P_{\text {pumpch }}+P_{\text {pumpc }}+P_{\text {tower }}+P_{\text {fan }}, \end{align} $ | (2) |
为减少智能体的训练时间, 首先需要对系统进行建模, 构建与智能体交互的模拟环境. 空调系统设备众多, 系统的状态参数与设备控制参数之间呈非线性关系, 使用传统机理建模方法较为困难[8]. 为此, 研究人员提出了多种基于数据驱动的建模方法, 如数据挖掘算法(人工神经网络-ANN[9]、支持向量机-SVM[10])、统计模型(回归[11]等)、几何模型[12]以及随机模型(概率密度函数逼近[13])等. 在这些建模方法中, 神经网络算法无需繁冗的建模过程, 且模型精度较高[14], 相比于其他方法, 在非线性系统建模方面更具优势. 因此, 本文采用神经网络获取系统模型, 建立神经网络模型需要合理选择建模参数, 以提高模型的可理解性、可扩展性和准确性[15].
2.1 系统模型参数由于控制目标是使系统在满足舒适性要求的前提下使EER尽可能大, 神经网络模型输出应为系统下一时刻站台温度和EER, 输入量包括状态变量和控制变量.
地铁站一般位于地下, 影响空调系统能效的因素包括室外环境、客流量、列车产热、隧道换热和设备散热等[16]. 客流量对地铁站空调系统负荷具有显著影响, 而本文无法获取武汉该地铁站的客流量数据信息. 通过文献[17]发现, 地铁站内客流变化与站内系统负荷变化存在近似正比关系, 且呈现相对规律的周期性变化, 如图 2所示. 因此, 本文以系统负荷代替客流量, 作为模型的一个输入参数. 列车产热、隧道换热和设备等的发热量对系统总负荷不具有显著影响. 最终, 选取影响地铁站空调系统温度和EER的主要状态变量为室外温度、室外相对湿度和系统负荷.
|
图 2 车站冷负荷与客流密度关系 |
另一方面, 水泵的控制变量是水泵流量, 末端风机的控制变量是输出给相应变频器的频率信号, 冷却塔风机的控制变量是控制电压信号. 而冷水机组结构复杂, 其内部有厂家设置好的控制器, 不允许外部控制器对其进行控制, 因此选择冷冻水供水温度设定值作为冷水机组的控制变量, 利用控制算法计算使系统优化目标达到最佳时的冷冻水供水温度设定值. 当优化后的设定值传给冷水机组后, 冷水机组会自动通过内部控制器, 使其出水温度跟上冷冻水的设定值. 另外, 为了实现风水联动控制, 通过末端组合式空调上的冷冻水阀将大系统与水系统有机地结合起来, 以实现整个系统的协调工作和动态水力平衡控制[18]. 综上所述, 系统控制变量选择为冷冻水供水温度、冷冻水泵流量、冷却水泵流量、冷却塔风机电压信号、末端风机频率和冷冻水阀开度. 由于当前时刻的温度和能效比对系统下一时刻状态也有影响, 最终空调系统预测模型的输入参数有: 1)室外温度
选取夏季6月
| 表 1 部分数据信息 |
在神经网络的训练过程中, 由于模型各输入变量的量纲不同, 且数据值的大小及范围差异较大, 会使网络训练速度变慢, 甚至出现最终无法收敛的情况, 需要对实测样本数据进行归一化和反归一化处理. 在进行处理时, 采用线性函数转换方法[19], 将数据转换成0~1范围内的数值.
3.3 神经网络结构选用3层前馈神经网络(1个输入层、1个隐含层和1个输出层)建立系统模型, 3层前馈神经网络已被证明能以高精度有效逼近任何一个非线性过程[20]. 网络隐层神经元数目对预测模型的性能有显著影响, 然而, 现有文献并没有提出明确的解析函数来预先确定隐层神经元的数量, 一般可通过基于下式的试错法[21]计算得到隐层神经元数量:
| $ \begin{align} m=\sqrt{n+l}+\alpha. \end{align} $ | (3) |
其中:
利用式(3)计算得出系统模型的隐含层节点数取值范围为[5, 13]. 综合考虑网络误差和网络泛化性能, 通过实验测定发现, 当隐含层节点数为10时网络训练效果最佳, 均方根误差最小, 实验比较结果如表 2所示.
| 表 2 不同情况下神经网络模型的均方根误差 |
最终, 本文神经网络模型的拓扑结构与各参数设置如表 3所示.
| 表 3 系统模型拓扑结构与神经网络参数设置 |
利用所构建的系统模型进行测试, 测试集数据共1 000组, 测试结果如表 4所示. 由表 4可见, 模型测试输出与所对应的目标输出之间误差较小, 表明所构建的空调系统模型可以以较高的精度反映系统输入输出样本数据对中固有的非线性映射关系, 且具有结构简单的特点, 同时能够避免进行繁琐的计算过程, 具有工程实用价值.
| 表 4 系统模型拓扑结构与神经网络参数设置 |
地铁站空调系统状态空间和动作空间均是多维连续的, 强化学习深度确定性策略梯度(DDPG)法对于解决这一类问题非常有效. DDPG算法属于强化学习Actor-Critic(AC)方法[23]. AC方法智能体共包含两部分, 即Actor部分和Critic部分. 智能体的唯一目标是找到一个最优策略最大化其长期回报, 即价值. 为了实现该目标, 智能体与环境不断进行交互训练, 智能体通过决策选择动作, 环境根据这些动作做出相应的响应, 并反馈给智能体.
3.1 强化学习模型要素利用强化学习方法解决地铁站空调系统节能控制问题, 首先需要将该问题转化为强化学习模型. 在强化学习模型中, 有几个核心要素: 状态、动作、奖励信号、策略和价值函数.
地铁站空调系统需要维持地铁站台温度在一定范围内, 而每个时间步长的站台温度仅由当前环境状态和控制设备输入决定, 独立于系统以前的状态. 确定强化学习智能体的状态就是系统模型的状态变量, 动作就是系统的控制变量, 即此处状态和动作是第2节中系统模型的输入变量, 具体为: 状态
| $ \begin{align} R=-|T_{\text {in }}-T_{\text {in_set }}|+\mathrm{e}^{\rm EER} / 100, \end{align} $ | (4) |
其中
在DDPG算法中, 智能体Actor部分和Critic部分一般均用神经网络表示, Actor网络映射策略函数, Critic网络映射价值函数, 算法训练的过程即为更新智能体网络的过程, 最终目的是寻找出最优策略网络.
3.2 基于多步预测的DDPG算法传统DDPG算法中智能体所有的数据均来自环境模型的反馈, 智能体只利用过去的数据对当前行为进行优化和提升, 限制了智能体的学习速度. 模型预测控制[24]作为一种智能优化控制算法, 采用多步预测、滚动优化和反馈校正等策略. 其中, 滚动优化与传统的全局优化不同, 其在每一时刻的优化性能指标只涉及从该时刻起到未来有限的时间内, 而到下一时刻, 这一优化时间同时向前推移, 不断地进行在线优化, 具有鲁棒性强、对模型精确性要求不高等优点. 滚动优化以多步预测为基础, 在每一优化时刻, 算法利用系统模型预测未来有限时间内的系统状态和动作, 再求解优化性能指标. 利用基于多步预测的思想能够使系统提前采取行动, 选择最优结果, 提高算法的学习效率.
对于强化学习智能体而言, 为了使它不必局限于只从与环境模型的交互中获取数据, 让智能体能够利用所预测的数据择优更新参数, 本文基于多步预测滚动优化的思想提出了基于多步预测的DDPG算法.
算法1 基于多步预测的DDPG算法.
输入: Actor当前网络
算法参数: 批量梯度下降的样本数
输出: 最优Actor当前网络参数
step 1: 随机初始化参数
step 2: 初始化状态
step 3: 基于Actor当前网络生成一组动作
step 4: 利用系统模型, 输入当前状态和
step 5: 若
step 6: 若
step 7: 计算每一组的总奖励值
step 8: 利用模拟环境执行动作
step 9: 将
step 10:
step 11: 从集合
step 12: 由式(7)计算均方差损失函数
step 13: 由式(8)计算损失函数
step 14: 如果
step 15: 若
step 16: 若迭代次数小于
算法1详细描述了基于多步预测的
为了在智能体训练时去除相邻时刻训练数据之间的相关性, 同时提高数据利用率, 算法中人为定义了一个有限的缓存区
为了使算法具有一定的在线探索性, 避免错过其他较好的动作, 在step 3使用的策略表示为
| $ \begin{align} A=\pi(S, \boldsymbol{\theta})+\xi. \end{align} $ | (5) |
其中:
传统DDPG算法在step 3后直接执行step 8. 本文在step 3后添加了step 4
更新网络参数时, 智能体从经验回放池中随机采样
| $ \begin{align} y_{j}=R_{j}+\gamma q^{\prime}(S^{\prime}, \pi^{\prime}(S^{\prime}, \boldsymbol{\theta}^{\prime}), \boldsymbol{w}^{\prime}), \end{align} $ | (6) |
其中:
Critic网络的损失函数为
| $ \begin{align} J(\boldsymbol{w})=\frac{1}{m} \sum\limits_{j=1}^{m}(y_{j}-q(S_{j}, A_{j}, \boldsymbol{w}))^{2}, \end{align} $ | (7) |
表示使式(6)中的目标
根据策略梯度法, Actor网络的损失函数为
| $ \begin{align} J(\boldsymbol{\theta})=-\frac{1}{m} \sum\limits_{j=1}^{m}q(S_{j}, A_{j}, \boldsymbol{w}). \end{align} $ | (8) |
算法采用梯度下降法对Actor和Critic网络的权值进行更新. 当满足目标网络更新频率
| $ \begin{align} &\boldsymbol{w}^{\prime} \leftarrow \tau \boldsymbol{w}+(1-\tau) \boldsymbol{w}^{\prime}, \end{align} $ | (9) |
| $ \begin{align} &\boldsymbol{\theta}^{\prime} \leftarrow \tau \boldsymbol{\theta}+(1-\tau) \boldsymbol{\theta}^{\prime}, \end{align} $ | (10) |
其中
图 3所示为所提出的基于强化学习的控制策略智能体训练系统结构, 图中模拟环境利用第2节构建的神经网络空调系统模型预测下一时刻站台温度和EER. 同时, 由于是离线训练智能体, 无法获取实际室外温度、湿度等不可控变量, 且难以预测, 在环境中这些变量是根据时间变化从往年提供的真实数据表格中进行读取.
|
图 3 强化学习控制系统结构 |
在智能体训练之前还需确定智能体的网络结构, 包括Actor网络和Critic网络. 如图 3所示, Actor网络以系统状态为输入, 控制动作为输出, Critic网络以系统状态和动作作为输入, 动作价值函数
|
图 4 智能体的网络示意图 |
为实现所提出的改进DDPG算法, 使用Pycharm软件, 基于Tensorflow框架, 根据算法1编写算法程序进行仿真实验, 具体流程如图 5所示.
|
图 5 智能体训练流程 |
图 6(a)给出基于多步预测的DDPG算法训练1 000次过程中的得分(总奖励值). 可以看出, 在训练过程中, 每次的奖励值是有波动的, 造成这种现象的原因主要有两个, 一是每次训练的初始环境不同, 二是算法为每次策略探索添加了随机噪声. 但是, 从整体奖励值的变化趋势看, 在训练过程中, 总奖励值呈稳步上升的趋势, 并在大约第500次训练后达到饱和值, 总奖励值接近1 200, 表明智能体已经训练完成. 训练过程中的站台温度变化情况如图 6(b)所示, 可以看出, 在第500次训练之前, 温度波动较大, 智能体在不断探索, 寻求更大的奖励, 之后温度趋于稳定, 稳定在设定值24
|
图 6 训练过程中变化曲线 |
在智能体训练过程中, 系统各控制变量均存在探索过程并最终达到稳定值. 在系统实际运行时, 各控制参数存在阈值约束, 其限定范围如下:
冷冻水供水温度:
冷却塔风机电压:
冷冻水泵流量:
冷却水泵流量:
末端风机控制信号:
冷冻水阀开度:
在智能体训练结束后, 冷却塔风机控制电压、冷冻水泵流量和冷却水泵流量均稳定在最大值处, 而冷冻水供水温度稳定在10
由图 6(a)可见, 在约500次训练后, 智能体得分已接近饱和值, 因此后几百次的训练是多余的. 为了确定智能体训练完成的确切次数, 避免人为设置训练次数过多, 影响算法效率, 每次训练结束后增加一个判断条件. 通过观察图 6(a) 1 000次训练结果发现, 在回报值达到饱和之前, 相隔100次的两次训练回报值之差都超过100, 达到饱和之后, 该差值低于50, 故将第
|
图 7 设置终止条件后的训练过程 |
传统DDPG算法与改进算法的训练得分过程比较如图 8所示, 当智能体训练次数达到616次时, 传统算法才训练结束, 相比于改进的基于多步预测的DDPG算法增加了86次, 可见所提出的改进算法提升了系统的学习效率. 除减少了智能体的训练次数外, 二者在训练完成时对系统状态温度和EER取得了同样的控制效果.
|
图 8 传统算法与改进算法训练过程比较 |
为了评价所提出基于多步预测的DDPG算法的性能, 将训练完成的智能体用于空调系统控制仿真实验, 并在第50个测试时刻人为加入干扰, 以观察地铁站台温度和能效比的输出结果.
图 9(a)为系统经过100个测试时刻后站台温度的变化曲线. 可以看出, 在前50个时刻, 温度能够从初始值约27
|
图 9 测试曲线 |
为解决地铁站空调系统能耗大、能源利用效率不高的问题, 本文提出了一种多步预测改进DDPG算法, 实现了基于强化学习的空调系统节能控制. 通过将多步预测与DDPG算法相结合, 提高了算法的效率. 首先, 采用神经网络建立系统模型, 作为离线训练智能体的模拟环境, 减少了强化学习智能体的训练时间; 然后, 将地铁站空调水系统与大系统视为一个整体设计智能体框架, 在此基础上基于Pycharm软件和Tensorflow框架编写算法程序, 训练智能体, 在保证地铁站台温度要求的前提下, 使整个系统的能效比最大化, 为了避免不必要的训练, 设置智能体训练终止条件, 有效减少了训练时间; 最后, 基于武汉某地铁站的实测运行数据进行仿真实验, 结果表明, 所提出的基于多步预测的DDPG算法与传统DDPG算法相比, 智能体训练次数减少了86次, 提升了系统的计算效率, 在将训练好的智能体应用于地铁站空调系统控制时, 该控制策略具有较好的温度跟踪性能, 且在保证温度效果的前提下, 与目前实际系统相比, 能源节省约17.908 %. 今后的研究工作将进一步对算法进行改进, 以提升智能体的收敛速度.
| [1] |
曾逸婷, 赵蕾. 地铁车站环境热舒适与通风空调系统节能策略研究进展[J]. 铁道标准设计, 2019, 63(3): 178-183. (Zeng Y T, Zhao L. Research on thermal comfort and energy saving strategies of ventilation and air-conditioning system in underground subway stations[J]. Railway Standard Design, 2019, 63(3): 178-183. DOI:10.13238/j.issn.1004-2954.201804220003) |
| [2] |
Maddalena E T, Lian Y Z, Jones C N. Data-driven methods for building control——A review and promising future directions[J]. Control Engineering Practice, 2020, 95: 104211. DOI:10.1016/j.conengprac.2019.104211 |
| [3] |
Sutton R S, Barto A G. Reinforcement learning[J]. A Bradford Book, 1998, 15(7): 665-685. |
| [4] |
戴小燕, 张映波, 杲靖, 等. 基于人工智能的节能控制物联网云平台的设计与实现[J]. 电气应用, 2019, 38(11): 97-104. (Dai X Y, Zhang Y B, Gao J, et al. Design and implementation of artificial intelligence-based energy-saving control system on IoT cloud platform[J]. Electrotechnical Application, 2019, 38(11): 97-104.) |
| [5] |
闫军威, 黄琪, 周璇. 基于Double-DQN的中央空调系统节能优化运行[J]. 华南理工大学学报: 自然科学版, 2019, 47(1): 135-144. (Yan J W, Huang Q, Zhou X. Energy-saving optimization operation of central air-conditioning system based on double-DQN algorithm[J]. Journal of South China University of Technology: Natural Science Edition, 2019, 47(1): 135-144.) |
| [6] |
Yuan X L, Pan Y Q, Yang J R, et al. Study on the application of reinforcement learning in the operation optimization of HVAC system[J]. Building Simulation, 2021, 14(1): 75-87. DOI:10.1007/s12273-020-0602-9 |
| [7] |
Dalamagkidis K, Kolokotsa D, Kalaitzakis K, et al. Reinforcement learning for energy conservation and comfort in buildings[J]. Building and Environment, 2007, 42(7): 2686-2698. |
| [8] |
Afram A, Janabi-Sharifi F. Review of modeling methods for HVAC systems[J]. Applied Thermal Engineering, 2014, 67(1/2): 507-519. |
| [9] |
赵静, 王弦, 王奔, 等. 基于神经网络的多类别目标识别[J]. 控制与决策, 2020, 35(8): 2037-2041. (Zhao J, Wang X, Wang B, et al. Multi-category target recognition based on neural network[J]. Control and Decision, 2020, 35(8): 2037-2041.) |
| [10] |
刘三阳, 吴德. 模糊聚类光滑支持向量机[J]. 控制与决策, 2017, 32(3): 547-551. (Liu S Y, Wu D. Fuzzy clustering smooth support vector machine[J]. Control and Decision, 2017, 32(3): 547-551.) |
| [11] |
Sauerbrei W, Schumacher M. A bootstrap resampling procedure for model building: Application to the Cox regression model[J]. Statistics in Medicine, 1992, 11(16): 2093-2109. |
| [12] |
Anwer N, Ballu A, Mathieu L. The skin model, a comprehensive geometric model for engineering design[J]. CIRP Annals, 2013, 62(1): 143-146. |
| [13] |
Zlatanović I, Gligorević K, Ivanović S, et al. Energy-saving estimation model for hypermarket HVAC systems applications[J]. Energy and Buildings, 2011, 43(12): 3353-3359. |
| [14] |
Afram A, Janabi-Sharifi F, Fung A S, et al. Artificial neural network (ANN) based model predictive control (MPC) and optimization of HVAC systems: A state of the art review and case study of a residential HVAC system[J]. Energy and Buildings, 2017, 141: 96-113. |
| [15] |
Kusiak A, Xu G L, Tang F. Optimization of an HVAC system with a strength multi-objective particle-swarm algorithm[J]. Energy, 2011, 36(10): 5935-5943. |
| [16] |
Guan B W, Liu X H, Zhang T, et al. Energy consumption of subway stations in China: Data and influencing factors[J]. Sustainable Cities and Society, 2018, 43: 451-461. |
| [17] |
林晓伟, 王侠. 地铁通风空调系统的优化控制[J]. 城市轨道交通研究, 2012, 15(11): 100-104. (Lin X W, Wang X. Optimum control of metro air conditioning[J]. Urban Mass Transit, 2012, 15(11): 100-104.) |
| [18] |
王晓保, 杨欣, 袁立新. 地铁车站空调实施风水联动控制技术节能效果分析[J]. 上海节能, 2013(7): 10-14. (Wang X B, Yang X, Yuan L X. Analysis of energy-saving effect in subway station's air-conditioning implementingair system & water system combined-control technology[J]. Shanghai Energy Conservation, 2013(7): 10-14.) |
| [19] |
Nishida T. Data transformation and normalization[J]. Rinsho Byori the Japanese Journal of Clinical Pathology, 2010, 58(10): 990-997. |
| [20] |
Jing H U, Amp F R. Predictive modeling of surface skewness and kurtosis based on BP neural network[J]. Surface Technology, 2017, 46(2): 235-239. |
| [21] |
Jahirul M I, Senadeera W, Brooks P, et al. An artificial neutral network (ANN) model for predicting biodiesel kinetic viscosity as a function of temperature and chemical compositions[J]. Modsim International Congress on Modelling & Simulation, 2013, 1561-1567. |
| [22] |
李益兵, 宋东林, 王磊. 基于混合PSO-Adam神经网络的外协供应商评价决策模型[J]. 控制与决策, 2018, 33(12): 2142-2152. (Li Y B, Song D L, Wang L. Based on hybrid PSO-Adam neural networks decision making model for outsourcing supplier evaluation[J]. Control and Decision, 2018, 33(12): 2142-2152.) |
| [23] |
Vázquez-Canteli J R, Nagy Z. Reinforcement learning for demand response: A review of algorithms and modeling techniques[J]. Applied Energy, 2019, 235: 1072-1089. |
| [24] |
康铭鑫, 李长平, 刘腾飞. 基于观测器的发动机转矩跟踪模型预测控制[J]. 控制与决策, 2020, 35(4): 791-798. (Kang M X, Li C P, Liu T F. Observer based model predictive torque tracking control for gasoline engines[J]. Control and Decision, 2020, 35(4): 791-798.) |
2022, Vol. 37
