Processing math: 100%

基于时序卷积网络的云服务器性能预测模型

廖恩红, 舒娜, 李加伟, 庞雄文

廖恩红, 舒娜, 李加伟, 庞雄文. 基于时序卷积网络的云服务器性能预测模型[J]. 华南师范大学学报(自然科学版), 2020, 52(4): 107-113. DOI: 10.6054/j.jscnun.2020068
引用本文: 廖恩红, 舒娜, 李加伟, 庞雄文. 基于时序卷积网络的云服务器性能预测模型[J]. 华南师范大学学报(自然科学版), 2020, 52(4): 107-113. DOI: 10.6054/j.jscnun.2020068
LIAO Enhong, SHU Na, LI Jiawei, PANG Xiongwen. A Prediction Model of Cloud Server Performance Based on Temporal Convolutional Network[J]. Journal of South China Normal University (Natural Science Edition), 2020, 52(4): 107-113. DOI: 10.6054/j.jscnun.2020068
Citation: LIAO Enhong, SHU Na, LI Jiawei, PANG Xiongwen. A Prediction Model of Cloud Server Performance Based on Temporal Convolutional Network[J]. Journal of South China Normal University (Natural Science Edition), 2020, 52(4): 107-113. DOI: 10.6054/j.jscnun.2020068

基于时序卷积网络的云服务器性能预测模型

基金项目: 

广东省科技计划项目 2017B010126002

广东省科技计划项目 2017A010101008

广东省科技计划项目 2017A010101014

教育部科技发展中心项目 2018A02004

详细信息
    通讯作者:

    庞雄文,副教授,Email:augepang@163.com

  • 中图分类号: TP183

A Prediction Model of Cloud Server Performance Based on Temporal Convolutional Network

  • 摘要: 目前基于深度学习的主机性能预测模型大部分缺乏普适性,实验数据缺乏公正性,无法准确预测能耗或性能峰值点且时间开销较大.为解决这些问题,文章提出了一种基于改进时序卷积网络的云服务器性能预测模型(ATCN模型).该模型将CPU利用率作为主机过载的衡量标准,利用多维性能指标构建N+1维能耗向量,建立输入向量与预测标准之间的关系;调整TCN中的卷积核大小并不断增大扩张因子,实现长期记忆效果.基于阿里云开源数据集的实验结果表明:ATCN模型具有强自适应性,在不同硬件配置和资源使用情况下,预测准确率和效率方面比LSTM模型提升大约20%.
    Abstract: Most of the current deep learning-based models for host performance prediction do not have universal applicability, cannot produce fair experimental data or accurately predict the energy consumption or performance peak point, and consume too much time. In order to solve these problems, an adaptive performance prediction mo-del based on Temporal Convolutional Network (ATCN Model) is proposed. In this model, CPU utilization is regarded as the measurement standard for host overload, N+1-dimension energy consumption vector is constructed with multi-dimensional performance index, and the relationship between the input vector and prediction standard is established. The convolution kernel size in TCN is adjusted and the expansion factor is increased continuously to achieve a long-term memory effect. The experimental results based on Alibaba cloud open-source data set show that the ATCN model has strong self-adaptability. Under different hardware configurations and resource usages, the prediction accuracy and efficiency are improved by about 20% compared with the LSTM prediction model.
  • 云数据中心(Cloud Data Center)集成了大量的软件与硬件资源,是一个按需为用户提供计算资源的虚拟化平台[1-3].为了满足用户日益增长的数据存储与计算需求,数据中心不断扩容,造成了电能的巨大消耗[4],使得CO2排放量急剧上升,对环境造成了很大的影响.大部分数据中心大约只有50%的服务器在工作,多数主机处于较低的工作负载状态,但处于空闲状态的服务器依然会消耗大量电能[5],因此,很多学者致力于高效的云数据中心节能技术[6-7]以及云数据中心能耗预测与主机的资源利用率预测等方面的研究[8-10].

    现有研究将深度学习技术应用到云数据中心进行主机性能预测[11-12],通过对历史数据进行分析,预测未来时刻的能耗情况,为即将到来的任务分配恰当的计算资源, 以达到节能效果[13-15],进而可以动态调整数据中心的供电系统[16],减少不必要的电量损失.基于高斯混合模型GMM[17]的功耗预测是一种基于条件概率的细粒度回归模型,该模型可适应不同的集群环境并高度拟合系统体系的所有特征,但不适用于实时能耗预测;在自适应ANN和LSTM的能耗预测模型[18]中,对违反SLAs时的惩罚因子进行调整,不断优化模型,比基准系统减少了20.6%的总开销;在基于粗粒度和细粒度的DNN功耗模型[19]中,建立了功耗和硬件配置的关系,并降低了噪声数据对模型的干扰,在特定环境下降低了79%的错误率.除了在能耗预测方面研究之外,也有建立时序关系的LSTM工作负载预测,如在经典日志数据集上进行下一时间段负载预测,模型错误率降低至0.001%[20].以上能耗预测模型和负载预测模型都是基于非时序的卷积神经网络或单一的循环神经网络,BAI等[21]提出的TCN时序卷积网络结合了CNN模型与LSTM模型的优点,既囊括了CNN模型对重要信息的提炼,又具备LSTM模型对时序序列的处理机制,随着扩张因子的增大,不断膨胀的卷积核获得更宽的感受野,使得卷积效果更加显著,同时可并行计算,大大提高了计算速度.

    为进一步提高对云服务器未来时刻的主机资源利用率预测的准确性,本文提出了基于时序卷积网络的云服务器性能预测模型(ATCN,Adaptive Temporal Convolutional Network):首先,将数据的时间戳特征转化为精确到秒的日期格式,按日期进行排序,对缺失数据采取上下邻接取平均的方法进行填充;然后,通过主机资源利用率构建能耗向量,建立输入向量与预测标准之间的关系;最后,调整TCN时序卷积网络中的卷积核尺寸和扩张因子大小,并找到最合适的学习率和隐藏层层数.

    ATCN模型是基于时序卷积网络的性能预测模型,该模型通过构建N+1维能耗向量和改进时序卷积网络结构,达到对云服务器未来时刻的主机性能进行准确预测的效果.

    集群中的主机可分为3类:满载、低载和过载.而主机是否过载主要依赖于CPU、内存和磁盘利用率以及网络传输量.因此,构建多维性能向量,实现基于CPU利用率的过载主机预测模型,可以适应不同硬件和配置,具有自适应和调节能力、具有通用性和普适性是ATCN模型需要达到的目标. N+1维能耗向量构建过程如下:

    (1) 标签-CPU利用率:在机器运行的过程中,CPU利用率对作业的执行变化比较明显,当主机低载,CPU利用率也很低;当主机满载,CPU利用率也相应呈正相关变化.因此,将CPU利用率作为过载主机的衡量标准符合实际情况.

    (2) N维性能利用率:Alibaba主机性能利用率跟踪数据中采集了CPU、内存、网络输入、网络输出和磁盘I/O等指标的实时利用率,这些指标对主机是否过载都有一定影响,因此,这些指标都可以作为输入特征.

    (3) N+1维能耗向量构建:本文将多维性能利用率看成是N维输入,而N维输入与主机过载与否有重要关联.因此,根据多维性能利用率构建N维性能向量,回归模型为:

    y(t)=σ(w1_tx1+w2_tx2++wn_txn). (1)

    模型(1)建立t时刻N维输入x与输出y之间的函数关系. RAUBER和RVNGER[22]指出:CPU利用率的变化与能耗变化呈线性相关关系,而主机的能耗受CPU、内存、磁盘和网络等资源使用情况的影响.因此,本文将主机能耗构建为第N+1维能耗向量.动态功率消耗Pdynamic与切换频率α、负载容量CL、供电电压V、CPU操作频率f都有关.静态功率消耗Pstatic指没有电路活动时消耗的电量.总功耗为:

    Ptotal =αCLV2f+Pstatic . (2)

    静态功耗Pstatic既是独立存在的功耗,又与动态功耗Pdynamic呈一定比例关系,功耗P与比例因子s-3的关系为:

    P(s)=s3Pfull . (3)

    假设当前CPU利用率为C,一台机器的容量为U,则一台机器的功率消耗为:

    Pcurrent =s3Pfull =(CU)3Pfull . (4)

    一台机器的资源分配的唯一时间是分配或停止任务时,且调度器可以随时获得资源分配并维护.在没有系统级监控机制调度器的情况下无法实时获得CPU利用率,并且CPU利用率具有高动态性,基于快速的CPU利用率变化更新功率消耗是不够准确的.所以,为了达到更精确地拟合效果,在频率请求方面,使用资源分配Ĉ近似代表当前功率消耗Pcurrent.本文近似将虚拟功耗(Virtual Power Consumption)定义为:

    Pvirtual =(ˆCU)3Pfull . (5)

    由于阿里云数据集粒度细, 以秒级为单位采集,具有强实时性,因此,在构建能耗模型时完全可以根据实时CPU利用率的变化进行能耗模拟.由式(4)可构建能耗模型:

    Pcurrent =(CU)3(PCPU+Pmem+Pdisk+Pnetwork ), (6)

    其中,PCPUPmemPdiskPnetwork分别表示CPU、memory、disk、network各部件的功耗.

    ATCN结构(图 1):该网络包括3层隐藏层,同时1D全卷积保证数据输入与每层隐藏层的输入维度一致;时间卷积网络对卷积核的大小K以及扩张因子d的大小比较敏感,本文的方法是调整卷积核大小,扩张因子d分别取为1、2、3、5;扩张卷积可以扩大卷积核感受野[23-24],同时通过不断增加d的大小,达到长期记忆效果.

    图  1  ATCN网络架构图
    Figure  1.  The network architecture of ATCN

    对给定输入{x1, x2, …, xT-1, xT},T时刻的预测值ŷT可以提取到很久以前的输入序列信息,这是因为当扩张因子不断膨胀,感受野所覆盖的感受范围也越来越广(图 2):当d=1时,卷积核感受野相当于普通卷积;当d=2时,卷积核感受野等于25;当d=3,卷积核感受野等于36.

    图  2  扩展卷积示意图
    Figure  2.  The extended convolution diagram

    ATCN网络架构构建的具体步骤如下:

    步骤1:初始化权重参数和偏差参数值,权重向量服从正太分布,偏差向量b为全0矩阵.

    步骤2:卷积核大小设为2,扩张因子等于2的卷积过程如图 3所示:每个时序序列的输入为1*5,扩张因子等于2的卷积核大小在其空孔处补0,扩张后的卷积核大小变成3*3,与填充之后的输入序列进行计算,如果输入与输出结果不一致,则进行1D全卷积,以保证输入输出长度一致.

    图  3  卷积过程图
    Figure  3.  The convolution process

    步骤3:采用ReLU(Rectified Linear Unit)函数为激活函数,作用于隐层神经元的输出:

    Φ(x)=max(0,x). (7)

    步骤4:为防止过拟合,以一定比例删除隐层中的神经元.

    步骤5:权重归一化[25],调整了优化问题的条件,加快随机梯度下降的收敛速度.

    步骤6:通过不断调整扩张因子的大小重复以上操作3次,得到最终预测输出结果.

    步骤7:结合优化算法不断调整权重和偏差向量,并迭代直到模型收敛.

    更新网络训练参数时,针对模型(1),本文使用均方根误差(RMSE)作为代价函数:

    RMSE(ˆy,y)=1NNi=1(ˆyiyi)2, (8)

    其中,ŷ是模型的预测输出,y是真实值,ŷy可以是任何形状,分别包含n个元素,在模型(1)中,n=1.

    对整个网络进行微调时,采用Adam算法对目标函数进行优化.

    本节采用ATCN模型预测集群中各主机的资源利用率,通过CPU利用率的阈值评判主机在未来某一时刻是否会发生过载.实验基于Alibaba cluster-trace-v2018[26]追踪数据.

    (1) N维特征提取.首先,根据主机的CPU利用率进行过载主机预测,预测模型显然属于回归模型,由此将CPU利用率作为预测模型的标签.然后,考虑内存利用率、磁盘利用率、传入和传出网络包数4个指标作为主机是否过载的影响因素.

    (2) 特征预处理.实验采集数据以秒为单位,本文考虑到数据集样本过多,又因为在秒级范围内资源利用率的变化相对较小,所以,对数据进行分钟级别的组合,以10 s为1个时间段,取10 s内资源利用率最大的值作为这一时间片内资源的利用率.将时间戳转换为日期格式;对于数据集中的列值缺失数据,采用临接均值填充的方法进行处理.

    (3) 特征转化.为了精确预测实验结果,本实验首先把每一维特征都转化为Float类型,并将数据按照时间这一列进行升序排序;然后,将数据转化成PyTorch的基本计算单位tensor张量作为最终输入.

    (4) 模型训练. ATCN模型基于时序卷积网络,使用了3层隐藏层:每一层包括扩张卷积、线性激活和dropout;最后一层比较输入与输出的维度,若维度不相等则进行1D全卷积,以保证输入与输出维度一致,再采用ReLU进行激活,并输出预测结果.

    本节通过大量实验结果验证ATCN模型的有效性,主要针对该实验的数据集处理过程、特征构建、模型构建以及模型的影响因素进行多角度实验分析. ATCN模型以开源深度学习框架PyTorch为开发框架;使用批量梯度下降Adam为优化器; 设置模型初始学习率α=0.001,隐藏层层数h=2,卷积核大小K=2,扩张因子d=O(2i),其他超参数设置为常用值.为避免过拟合,如果训练阶段经过3个Epoch后代价函数值仍没有下降,则Early Stopping停止训练.

    (1)卷积核参数调整. ATCN模型中扩张卷积的存在使得卷积核大小成为影响实验效果的重要影响因素之一:卷积核大小意味着单次卷积的输入序列数,而扩张卷积计算值也是输出的基础. ACTN模型预测实验分别设置卷积核大小K为2、3、4,学习率α=0.001,隐藏层层数h=2.

    由实验结果(表 1)可知:(1)当卷积核大小为4时,实验的测试数据结果最好(RMSE=4.108 604). (2)训练过程在第2个Epoch时,代价函数下降明显,而后几个Epoch中代价函数值的变化趋于平稳.这说明实验的梯度下降算法设置比较合理,一开始是以大跨步寻找全局最优,而后调整寻优的步伐,小步向全局最优靠拢,这样可以减少模型训练时间,一次性训练到位并加速模型收敛.

    表  1  不同卷积核大小的模型预测实验结果
    Table  1.  The results of experiment on model prediction with different convolution kernel sizes
    网络结构 Epoch
    次数
    RMSE
    K=2 K=3 K=4
    5*(5*5)*1 1 4.240 738 4.250 448 4.232 623
    5*(5*5)*1 2 4.214 804 4.224 319 4.205 785
    5*(5*5)*1 3 4.185 173 4.194 477 4.175 114
    5*(5*5)*1 4 4.151 128 4.160 328 4.139 865
    5*(5*5)*1 5 4.125 518 4.128 336 4.108 604
    下载: 导出CSV 
    | 显示表格

    (2) 学习率参数调整.在深度学习模型训练中,学习率是一个重要的超参数调整因素.学习率在模型寻优过程中扮演重要角色,学习率越大则寻优的跨度越大,学习率越小则寻优跨度越小.众多模型训练的结果[27]表明:学习率没有固定最优经验值,需要不断调整并比照实验结果确定最优的学习率参数.本实验中学习率α分别设置为0.1、0.01、0.001,隐藏层层数h=2, 卷积核大小K=4.因为表 1已给出学习率为0.001的实验结果,所以,下面只列出了学习率分别为0.1和0.01的实验结果.

    由实验结果(表 1表 2)可知不同的学习率各有优缺点:学习率较大时,模型训练速度较快,不容易收敛且实验结果较差;当学习率为0.1时,最好的测试结果为RMSE=4.665 762,远不及学习率为0.001的测试结果,且训练集的损失值相当大,表明ATCN模型在使用较大或较小学习率时存在一定问题;当学习率为0.01时,无论是训练集还是测试集,效果都呈现相似的收敛趋势,测试结果最终收敛在3.540 056.因此,α=0.01应为最优的学习率参数.

    表  2  不同学习率的模型预测实验结果
    Table  2.  The results of experiment on model prediction with different learning rates
    网络结构 Epoch次数 RMSE
    α=0.1 α=0.01
    5*(5*5*5)*1 1 4.755 311 4.710 108
    5*(5*5*5)*1 2 4.739 319 3.820 585
    5*(5*5*5)*1 3 4.728 839 3.622 646
    5*(5*5*5)*1 4 4.685 500 3.566 161
    5*(5*5*5)*1 5 4.665 762 3.540 056
    下载: 导出CSV 
    | 显示表格

    (3) 隐藏层层数参数调整.时间卷积网络中卷积层的作用是用于提取重要信息,隐藏层的层数越大则扩张因子值越大,扩张因子值越大意味着可以获得更大的感受野,从而可以提取到更久以前的信息.从扩张卷积的原理出发可以推出:隐藏层层数越多则输出结果越精确.隐藏层层数参数调整实验中设置隐藏层层数h为1、3、5, 学习率α=0.001,卷积核大小K=3.实验结果(表 3)证明:隐藏层层数为3时,测试结果最优(RMSE=3.591 695).

    表  3  不同隐藏层层数的模型预测实验结果
    Table  3.  The results of experiment on model prediction for different hidden layers
    网络结构 Epoch
    次数
    RMSE
    h=1 h=3 h=5
    5*(5*5)*1 1 4.715 307 3.943 657 6.590 475
    5*(5*5)*1 2 4.018 473 3.884 918 6.497 486
    5*(5*5)*1 3 4.017 610 3.809 758 6.489 330
    5*(5*5)*1 4 4.013 072 3.713 727 6.403 135
    5*(5*5)*1 5 4.009 924 3.591 695 6.403 134
    下载: 导出CSV 
    | 显示表格

    由以上几组对比实验可知:实验结果的准确度与卷积核大小、隐藏层层数、学习率都有关;当卷积核大小K=4、学习率α=0.01、隐藏层层数h=3时效果最好.因此,本文最终采用这几个超参数值和网络层数作为ATCN模型的设计结构.

    为了验证ATCN模型的有效性,本文与单向循环记忆网络(LSTM模型)进行了对比. LSTM模型以前条记录预测后3条记录的值,隐藏层有4个神经元,输出层为预测值;采用sigmoid激活函数,迭代次数为10.由实验结果(表 4)可知ATCN模型在时间效率上优于LSTM模型:ATCN模型在第3次Epoch时,标准误差值趋于稳定;LSTM模型在第4次Epoch时,标准误差值趋于稳定.

    表  4  对比实验测试结果
    Table  4.  The comparison test results
    网络结构 Epoch
    次数
    RMSE
    ATCN LSTM
    5*(5*5*5)*1 1 3.642 454 3.556 143
    5*(5*5*5)*1 2 3.210 256 3.268 746
    5*(5*5*5)*1 3 3.012 058 3.219 875
    5*(5*5*5)*1 4 3.002 158 3.111 235
    5*(5*5*5)*1 5 3.001 924 3.110 457
    下载: 导出CSV 
    | 显示表格

    在不断调整ATCN模型参数和网络结构的过程中发现:当隐藏层层数h=3、学习率α=0.01、卷积核大小K=4时,模型效果最好.

    由ATCN模型与LSTM模型的对比结果(表 4图 4)可知:ATCN模型在刚开始预测时,由于记忆到的东西不够多,所以模型最初训练时代价函数值比较大,但随着Epoch次数的增加,标准误差逐渐降低至3.002 158,准确率比初始ATCN模型提升17%左右;另外,由于ATCN模型是基于N+1维性能向量改进的时序卷积网络模型,所以,在不同主机配置的情况下,ATCN模型在自适应性上优于LSTM模型.总的来说,ATCN模型在效率和准确率方面要比LSTM模型提升约20%左右.

    图  4  ATCN模型与LSTM模型预测实验对比图
    Figure  4.  The comparison of prediction experiments between ATCN model and LSTM model

    本文设计了基于时序卷积网络的自适应过载主机检测模型(ATCN模型),利用多维性能指标构建了N维性能向量,并对TCN时序卷积网络进行参数和网络结构调整.该模型可以实时预测集群中各主机的资源利用率,通过阈值评判主机在未来某一时刻是否会发生过载,并且可以自适应主机不同配置和参数,对云服务器未来时刻的主机资源利用率进行准确预测.基于阿里云开源数据集的实验结果表明:ATCN模型在预测准确率和时间效率方面比LSTM模型提升大约20%.

    在下一步的工作中,将致力于对即将过载主机中的容器进行分类迁移,利用最少的主机达到最佳的迁移效果,以提高数据中心资源利用率.

  • 图  1   ATCN网络架构图

    Figure  1.   The network architecture of ATCN

    图  2   扩展卷积示意图

    Figure  2.   The extended convolution diagram

    图  3   卷积过程图

    Figure  3.   The convolution process

    图  4   ATCN模型与LSTM模型预测实验对比图

    Figure  4.   The comparison of prediction experiments between ATCN model and LSTM model

    表  1   不同卷积核大小的模型预测实验结果

    Table  1   The results of experiment on model prediction with different convolution kernel sizes

    网络结构 Epoch
    次数
    RMSE
    K=2 K=3 K=4
    5*(5*5)*1 1 4.240 738 4.250 448 4.232 623
    5*(5*5)*1 2 4.214 804 4.224 319 4.205 785
    5*(5*5)*1 3 4.185 173 4.194 477 4.175 114
    5*(5*5)*1 4 4.151 128 4.160 328 4.139 865
    5*(5*5)*1 5 4.125 518 4.128 336 4.108 604
    下载: 导出CSV

    表  2   不同学习率的模型预测实验结果

    Table  2   The results of experiment on model prediction with different learning rates

    网络结构 Epoch次数 RMSE
    α=0.1 α=0.01
    5*(5*5*5)*1 1 4.755 311 4.710 108
    5*(5*5*5)*1 2 4.739 319 3.820 585
    5*(5*5*5)*1 3 4.728 839 3.622 646
    5*(5*5*5)*1 4 4.685 500 3.566 161
    5*(5*5*5)*1 5 4.665 762 3.540 056
    下载: 导出CSV

    表  3   不同隐藏层层数的模型预测实验结果

    Table  3   The results of experiment on model prediction for different hidden layers

    网络结构 Epoch
    次数
    RMSE
    h=1 h=3 h=5
    5*(5*5)*1 1 4.715 307 3.943 657 6.590 475
    5*(5*5)*1 2 4.018 473 3.884 918 6.497 486
    5*(5*5)*1 3 4.017 610 3.809 758 6.489 330
    5*(5*5)*1 4 4.013 072 3.713 727 6.403 135
    5*(5*5)*1 5 4.009 924 3.591 695 6.403 134
    下载: 导出CSV

    表  4   对比实验测试结果

    Table  4   The comparison test results

    网络结构 Epoch
    次数
    RMSE
    ATCN LSTM
    5*(5*5*5)*1 1 3.642 454 3.556 143
    5*(5*5*5)*1 2 3.210 256 3.268 746
    5*(5*5*5)*1 3 3.012 058 3.219 875
    5*(5*5*5)*1 4 3.002 158 3.111 235
    5*(5*5*5)*1 5 3.001 924 3.110 457
    下载: 导出CSV
  • [1]

    QIAN Q F, LI C L, ZHANG X Q. Survey of virtual resource management in cloud data center[J]. Application Research of Computers, 2012, 29(7):2411-2410. http://www.oalib.com/paper/1620927

    [2]

    SONI G, KALRA M. A novel approach for load balancing in cloud data center[C]//Proceedings of 2014 IEEE International Advance Computing Conference. Gurgaon, India: IEEE, 2014: 807-812.

    [3]

    TSENG F H, WANG X, CHOU L D, et al. Dynamic resource prediction and allocation for cloud data center using the multiobjective genetic algorithm[J]. IEEE Systems Journal, 2017, 12(2):1688-1699. http://ieeexplore.ieee.org/document/7987741/

    [4]

    SOFIE L, WARD V H, WILLEM V, et al. Worldwide electricity consumption of communication networks[J]. Optics Express, 2012, 20(26):513-524. doi: 10.1364/OE.20.00B513

    [5]

    NI J C, BAI X L. A review of air conditioning energy performance in data centers[J]. Renewable & Sustainable Energy Reviews, 2017, 67:625-640. http://www.sciencedirect.com/science/article/pii/S136403211630541X

    [6]

    DAYARATHNA M, WEN Y, FAN R. Data center energy consumption modeling:a survey[J]. Communications Surveys & Tutorials, 2016, 18(1):732-794. http://cn.bing.com/academic/profile?id=88dca82d314f40d06fda538a466330d5&encoded=0&v=paper_preview&mkt=zh-cn

    [7]

    TRAN V G, DEBUSSCHERE V, BACHA S. Data center energy consumption simulator from the servers to their cooling system[C]//Proceedings of 2013 IEEE Grenoble Conference. Grenoble, France: IEEE, 2014: 1-6.

    [8]

    YANG Q P, PENG C L, ZHAO H, et al. A new method based on PSR and EA-GMDH for host load prediction in cloud computing system[J]. Journal of Supercomputing, 2014, 68(3):1402-1417. http://dl.acm.org/citation.cfm?id=2633499

    [9]

    HUANG P J, YE D S, FAN Z W, et al. Discriminative model for Google host load prediction with rich feature set[C]// Proceedings of 2015 15th IEEE/ACM International Symposium on Cluster, Cloud and Grid Computing. Shen-zhen: IEEE, 2015: 1193-1196.

    [10]

    DI S, KONDO D, CIRNE W. Host load prediction in a Google compute cloud with a Bayesian model[C]//Proceedings of the International Conference on High Performance Computing, Networking, Storage and Analysis. Salt Lake City, UT: IEEE, 2012: 1-11.

    [11]

    TIAN C J, MA J, ZHANG C H, et al. A deep neural network model for short-term load forecast based on long short-term memory network and convolutional neural network[J]. Energies, 2018, 11(12):3493/1-13. doi: 10.3390/en11123493

    [12]

    YU Z Y, NIU Z W, TANG W H, et al. Deep learning for daily peak load forecasting-a novel gated recurrent neural network combining dynamic time warping[J]. IEEE Access, 2019, 7:17184-17194. doi: 10.1109/ACCESS.2019.2895604

    [13]

    DI S, KONDO D, CIRNE W. Google hostload prediction based on Bayesian model with optimized feature combination[J]. Journal of Parallel and Distributed Computing, 2014, 74(1):1820-1832. http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=842ebbe0624a9345c7c356f71da52d91

    [14]

    SONG B B, YU Y, ZHOU Y, et al. Host load prediction with long short-term memory in cloud computing[J]. The Journal of Supercomputing, 2018, 74(12):6554-6568. doi: 10.1007/s11227-017-2044-4

    [15]

    YANG Q P, ZHOU Y, YU Y, et al. Multi-step-ahead host load prediction using autoencoder and echo state networks in cloud computing[J]. The Journal of Supercomputing, 2015, 71(8):3037-3053. doi: 10.1007/s11227-015-1426-8

    [16]

    RONG H G, ZHANG H M, XIAO S, et al. Optimizing ener-gy consumption for data centers[J]. Renewable and Sustainable Energy Reviews, 2016, 58:674-691. doi: 10.1016/j.rser.2015.12.283

    [17]

    ZHU H, DAI H D, YANG S Z, et al. Estimating power consumption of servers using Gaussian Mixture model[C]//Proceedings of 2017 Fifth International Symposium on Computing and Networking. Aomori, Japan: IEEE, 2017: 427-433.

    [18]

    LIU N, LIN X, WANG Y Z. Data center power management for regulation service using neural network-based power prediction[C]//Proceedings of 2017 18th International Symposium on Quality Electronic Design. Santa Clara: IEEE, 2017: 367-372.

    [19]

    LI Y L, HU H, WEN Y G, et al. Learning-based power prediction for data centre operations via deep neural networks[C]//Proceedings of the 5th International Workshop on Energy Efficient Data Centres. New York: Association for Computing Machinery, 2016: 1-10.

    [20]

    KUMAR J, SINGH A K. Workload prediction in cloud using artificial neural network and adaptive differential evolution[J]. Future Generation Computer Systems, 2018, 81:41-52. doi: 10.1016/j.future.2017.10.047

    [21]

    BAI S J, KOLTER J Z, KOLTUN V. An empirical evaluation of generic convolutional and recurrent networks for sequence modeling[J/OL]. arXiv, (2018-03-04)[2020-04-10]. https://arxiv.org/abs/1803.01271.

    [22]

    RAUBER T, RVNGER G. Modeling the energy consumption for concurrent executions of parallel tasks[C]//Proceedings of the 14th Communications and Networking Symposium. Boston: ACM, 2011: 11-18.

    [23]

    OORD A, DIELEMAN S, ZEN H, et al. Wavenet: a genera-tive model for raw audio[J/OL]. arXiv, (2016-09-19) [2020-04-10]. https://arxiv.org/abs/1609.03499.

    [24]

    YU F, KOLTUN V. Multi-scale context aggregation by dilated convolutions[J/OL]. arXiv, (2016-04-30) [2020-04-10]. https://arxiv.org/abs/1511.07122.

    [25]

    SALIMANS T, KINGMA D P. Weight normalization: a simple reparameterization to accelerate training of deep neural networks[C]//Proceedings of Neural Information Processing Systems. Barcelona, Spain, 2016: 901-909.

    [26]

    Alibaba Inc. Cluster data collected from production clusters in Alibaba for cluster management research[DS/OL]. (2018-12-13)[2019-12-13]. https://github.com/alibaba/clusterdata/tree/master/cluster-trace-v2018.

    [27]

    SMITH L N. Cyclical learning rates for training neural networks[C]//Proceedings of 2017 IEEE Winter Conference on Applications of Computer Vision. Santa Rosa, California: IEEE, 2017: 464-472.

  • 期刊类型引用(4)

    1. 宋继勐,周春雷,沈子奇,余晗,张伟阳,林兵. 基于TCN-GRU的Handle标识解析系统负载均衡算法. 福建师范大学学报(自然科学版). 2024(02): 64-73 . 百度学术
    2. 张颖. 基于大数据的云数据中心智能运维系统. 软件导刊. 2024(11): 153-157 . 百度学术
    3. 李泉,靳萌萌,聂晓杰. 基于J2EE架构的民航信息基础架构云平台设计. 计算机测量与控制. 2023(07): 192-198 . 百度学术
    4. 孔荫莹,柯锐恺,胡亚美,杨舟. 基于股票各板块内部的单向自适应图神经网络的股价预测模型. 华南师范大学学报(自然科学版). 2023(04): 100-107 . 百度学术

    其他类型引用(4)

图(4)  /  表(4)
计量
  • 文章访问数:  939
  • HTML全文浏览量:  489
  • PDF下载量:  77
  • 被引次数: 8
出版历程
  • 收稿日期:  2020-05-07
  • 网络出版日期:  2021-03-21
  • 刊出日期:  2020-08-24

目录

/

返回文章
返回