Loading [MathJax]/jax/element/mml/optable/BasicLatin.js

基于辅助设备的D2D集群的文件块缓存策略研究

周仙, 宋晖, 潘达儒, 黄旭

周仙, 宋晖, 潘达儒, 黄旭. 基于辅助设备的D2D集群的文件块缓存策略研究[J]. 华南师范大学学报(自然科学版), 2021, 53(3): 106-112. DOI: 10.6054/j.jscnun.2021049
引用本文: 周仙, 宋晖, 潘达儒, 黄旭. 基于辅助设备的D2D集群的文件块缓存策略研究[J]. 华南师范大学学报(自然科学版), 2021, 53(3): 106-112. DOI: 10.6054/j.jscnun.2021049
ZHOU Xian, SONG Hui, PAN Daru, HUANG Xu. The File Chunk Cache Strategy for D2D Cluster Based on Mobile Helpers[J]. Journal of South China Normal University (Natural Science Edition), 2021, 53(3): 106-112. DOI: 10.6054/j.jscnun.2021049
Citation: ZHOU Xian, SONG Hui, PAN Daru, HUANG Xu. The File Chunk Cache Strategy for D2D Cluster Based on Mobile Helpers[J]. Journal of South China Normal University (Natural Science Edition), 2021, 53(3): 106-112. DOI: 10.6054/j.jscnun.2021049

基于辅助设备的D2D集群的文件块缓存策略研究

基金项目: 

国家自然科学基金项目 61801184

国家自然科学基金项目 61771206

国家自然科学基金项目 61471175

详细信息
    通讯作者:

    宋晖,Email: songhui@m.scun.edu.cn

  • 中图分类号: TP393

The File Chunk Cache Strategy for D2D Cluster Based on Mobile Helpers

  • 摘要: 为了解决D2D缓存命中概率的最优化问题,在集群用户中加入了移动辅助设备(HEs)缓存,同时,提出了基于辅助设备的D2D集群的流性文件块分批缓存策略(FCPhit):首先,将有相似文件请求的用户群置于一个集群中;然后,将用户分批并将流行文件分为若干块,用户设备缓存文件的第1块,移动辅助设备缓存其他文件块. 并与已有的最流行缓存策略(MPhit)、最优缓存策略(OCPhit)和等概率缓存策略(EPRC)进行对比实验,结果表明:FCPhit策略可以有效提高系统的缓存命中概率.
    Abstract: In order to optimize the D2D cache hit ratio, the mobile helper equipments (HEs) cache is added to the cluster users. At the same time, a popular file chunk batch cache strategy (FCPhit) based on the helper equipment is proposed. Firstly, users with similar file requests are clustered into one cluster. Then, the users are batched and the popular file is divided into several chunks. The user equipment caches the first chunk of the file and HEs cache the other file chunks. Finally, the strategy is compared with the most popular existing caching strategy (MPhit), the optimal caching strategy (OCPhit), and the equal probability random cache strategy (EPRC). The results show that the present strategy can effectively improve the cache hit ratio of the system.
  • 近年来互联网用户和移动设备不断增长,思科视觉网络索引报告[1]指出:到2023年,全球互联网用户总数将从2018年的39亿增至53亿,全球移动设备将从2018年的88亿部增至131亿部[1]. 这对于传统的蜂窝网络将是巨大的流量负担,可能导致用户体验(QoS)下降[2]. 为提高用户体验,3GPP提出了D2D(Device-to-Device)通信,使用户数据不经过基站而在终端之间进行直接通信,从而降低了基站的负载,提供了比基站转发更高速率、更低功耗的短距离传输服务[3]. 研究[4-7]表明: 集群是提高缓存辅助D2D网络性能的有效方法,使用集群可以保证用户的QoS、传输的低延迟以及系统的高频谱、高能效、高缓存命中概率. 此外,AMER等[8]研究了一种集群协作策略,该策略将用户设备划分为集群并在集群内通过D2D通信或传统的蜂窝传输实现集群间数据交换,实现最小时延;为了增加系统的总数据速率,ZHENG等[9]提出了一个面向集群的D2D通信方案,该方案考虑了功率、带宽和链路分配的优化.

    虽然D2D设备可以大大缓解基站压力,但由于D2D设备的容量有限,无法满足用户对无线网络的需求. 因此,衍生了类似机器人、公交车和汽车等缓存容量更大的移动式缓存设备,并通过D2D通信与其他设备共享内容[10]. 移动式缓存设备的加入可以帮助用户出行交流,分享共同的兴趣[11-12]. CHEN等[13]开发了一个新的网络框架,即使用具有缓存启动和自维持的移动设备来分析D2D网络的成功内容交付性能. 此外,VO等[14]提出了一种社交感知的频谱共享与缓存辅助设备选择(SSC)策略, 该策略在5G网络中卸载视频. 但是,文献[11-14]没有考虑用户的相似性,这使得文件在通信过程中被相似用户反复使用,从而产生文件冗余问题,造成资源浪费. 因此,本文提出了基于辅助设备的D2D集群的流性文件块分批缓存策略(FCPhit):首先,根据请求文件的相似性将用户分为几个集群;然后,将用户分批并将流行文件分为若干块,用户设备缓存文件的第1块,移动辅助设备缓存其他文件块.

    系统模型设置为单蜂窝模式,即只有1个基站(BS)的蜂窝网络模型,其通信范围设置为半径为RBS的圆. 系统中有NUE个用户、NHE个辅助设备,用户的分布服从密度为λ (λ =NUE/(πRBS2)的泊松点过程(PPP). 辅助设备是指具有较大内存并可使用D2D通信为其他设备存储内容的设备. 辅助设备的通信范围设置为半径为RHE的圆,在其通信范围内,辅助设备可以通过D2D链路给用户设备提供所需要的内容. 系统的文件库中有M个文件,每个文件分为m块,每一块的大小为smbit. 每个用户可缓存L块文件,即用户设备的缓存容量为Lsm bit. 用户缓存文件jn块的概率用Pcjn表示,因此,用户缓存文件j的概率为Pcj={Pcj1, …, Pcjn, …, Pcjm}.

    Pj为用户请求排序为第j流行文件的概率,用zipf分布[6]表示:

    Pj=1/(jγ)Mi=11iγ, (1)

    其中,γ是zipf指数,γ值越高表示文件流行度越高,被访问次数越多.

    当用户请求文件j时,可能发生以下缓存命中情形:

    (1) 自缓存:当请求用户在自己的缓存空间里拥有所请求的文件时,自请求的缓存命中概率为:

    Pselfhit=Mj=1PcjPj, (2)

    其中,M为文件库中文件的总数量.

    (2) D2D缓存:当请求用户无法通过自请求获得文件时,通过D2D通信向通信范围内的用户请求此文件. D2D通信半径为RD2D,在泊松点过程(PPP)中,用户密度为λ,所以,在用户的D2D通信覆盖范围内存在t个缓存了文件j的用户的概率[6]为:

    Pt,j=(πR2D2DPcjλ)tt!eπR2D2DPcjλ, (3)

    则在周围用户中能找到文件f的概率为:

    Pf=1P0,j=1eπR2D2DPcjλ, (4)

    因此,D2D缓存命中概率为:

    PD2Dhit=Mj=1Pj(1Pcj)Pf=Mj=1Pj(1Pcj)(1eπR2D2DPcjλ). (5)

    (3) 辅助设备缓存:当用户无法从周围用户通过D2D通信获得文件时,从附近的移动辅助设备中获得文件. 辅助设备能够在它们的本地缓存内保存文件并应对普通用户的请求. 假设文件被缓存在移动速度为VHE的辅助设备中,在T秒内,用户在辅助设备的D2D覆盖范围μ[15]

    μ=πR2HE+2RHEVHET. (6)

    用户在辅助设备的D2D覆盖范围内至少被命中一次的概率为:

    ρHE=1(1μπR2BS)NHE, (7)

    则辅助设备的缓存命中概率为:

    PHEhit =Mj=1Pj(1Pcj)(1Pf)ρHE=Mj=1Pj(1Pcj)[1(1μπR2BS)NHE]eπR2D2DPcjλ. (8)

    所以,系统的缓存命中概率为:

    Phit =Pself hit +PHEhit +PD2D hit =1Mj=1Pj(1Pcj)eπR2D2DPcjλ(1μπR2BS)NHE. (9)

    最优的缓存策略是为了得到最优的Pcj (j=1, 2, …, M)的值,从而得到系统的缓存命中概率的最优解. 由于用户设备的缓存容量有限,Pcj (j=1, 2, …, M)的总和不应该超过用户缓存容量. 因此,优化问题可以表示为:

    max (10)

    其中,Pc={Pc1, Pc2, …, PcM},j ∈[1, M]. 为了解决问题(10),本文提出了基于辅助设备的D2D集群的流行文件块分批缓存策略(FCPhit):先将具有相似文件请求的用户置于一个集群中;然后将用户分批,并同时考虑文件流行度和文件分块,舍弃请求次数排序靠后的文件,在用户设备缓存受欢迎的文件的第1块,辅助设备缓存其他文件块.

    集群的形成首先要考虑用户请求的相似性,将有相似请求的用户集群在一起,在集群中有若干辅助设备帮助用户缓存(图 1). 集群采用的是聚集层次聚类算法(Agglomerative Hierarchical Clustering):首先,把每一个样本点当成一个类;然后,不断重复地将其中“距离最近”的2个类合并,直到满足预设的迭代终止条件. 设用户请求用u=k来表示,其中k表示u的关键字. 若有2组服务请求ut=ktur=kr,首先使用波特词干器[16]提取出这2组请求的词干kt*kr*,然后计算出kt*kr*的相似系数[6]

    k_{\mathrm{sim}}\left(u_{t}, u_{r}\right)=\left|k_{t}^{*} \cap k_{r}^{*}\right| /\left|k_{t}^{*} \cup k_{r}^{*}\right|, (11)
    图  1  用户集群图
    Figure  1.  The figure of user cluster

    ksim(ut, ur)越大,代表 2个类越相似. 最后,根据用户间的相似性将其组成一个集群.

    在日常生活,很多用户在浏览文件时,往往只关心文件的开头. 如果在用户请求文件时每次均传输整个文件,没有被浏览的部分会占用过多的内存,从而造成D2D资源的浪费. 针对这种状况,本文提出了一种基于辅助设备的D2D集群的流行文件块分批缓存策略(FCPhit). 由zipf分布可知:集群内的用户虽然有较相同的兴趣爱好,但其缓存空间内依然存在部分不受欢迎的文件. 基于此,本策略舍弃不受欢迎的文件,选取流行的文件组成文件库ϕ,并将这些流行文件分为m块,用户在浏览完文件的第一块后可选择继续浏览剩余的文件块或者放弃浏览. 用户设备缓存这些文件的第1块,移动辅助设备缓存除了第1块的其他文件块. 为了减少数据量,本文采用分批缓存的方式.

    图 2所示,假设给定用户设备的最大缓存容量为5 bit,文件库ϕ中的文件数Q=10,ϕ中的文件分为2批被用户设备缓存. 将集群用户随机进行标记,分别编号1、2、3、…,将ϕ中的文件依次缓存在用户设备的缓存空间内,即:第1个用户设备(U1)的缓存空间缓存文件j (j =1, 2, 3, 4, 5)的第1块fj1,移动辅助设备缓存这些文件的其他块;第2个用户设备(U2)的缓存空间缓存文件j (j =6, 7, 8, 9, 10)的第1块fj1,移动辅助设备缓存这些文件的其他块,此时ϕ中的文件都已经被缓存;接下来,第3个用户设备(U3)的缓存空间的使用情况与U1相同,第4个用户设备(U4) 缓存空间的使用情况与U2相同,以此类推,直到所有用户设备的缓存空间均缓存了文件.

    图  2  示例分批缓存
    Figure  2.  The example for batch cache

    当选定文件库ϕ的容量大于缓存容量Lsm时,ϕ中的文件被分为Q/Lsm批,用bi = {f1+(i-1)Lsm1, …, fiLsm1}(i∈[1, Q/Lsm])表示第i批文件集. 以图 2为例,假设用户y缓存了文件集b1,当用户请求文件fj1 (j =1, 2, 3, 4, 5)时,第1块文件块是立即被缓存的. 因此,自缓存的缓存命中概率为:

    P_{\mathrm{hit}}^{\mathrm{self}}=\sum\limits_{j=1}^{M} P_{\mathrm{c}j} P_{j}, (12)

    其中

    P_{\mathrm{c}j}=\left\{\begin{array}{ll} 1 & \left(j \in\left(1+(i-1) L s_{m}, \cdots, i L s_{m}\right), i \in\left[1, Q / L s_{m}\right]\right), \\ 0 & \left(j \notin\left(1+(i-1) L s_{m}, \cdots, i L s_{m}\right), i \in\left[1, Q / L s_{m}\right]\right). \end{array}\right.

    当用户y请求文件的fj1不在自己的设备的缓存空间中时,假设集群中共有wj名用户缓存了该文件,由于用户位置不固定,wj名用户中任一用户处于用户y的D2D通信半径范围内的概率为:

    \frac{{\rm{ \mathsf{ π} }} R_{\mathrm{D2D}}^{2}}{{\rm{ \mathsf{ π} }} R_{\mathrm{BS}}^{2}}=\frac{R_{\mathrm{D} 2 \mathrm{D}}^{2}}{R_{\mathrm{BS}}^{2}}, (13)

    则在周围用户中能找到文件fj1的概率为:

    P_{f}=1-\left(1-\frac{R_{\mathrm{D 2 D}}^{2}}{R_{\mathrm{BS}}^{2}}\right)^{w_{j}}, (14)

    那么D2D缓存命中概率为:

    P_{\mathrm{hit}}^{\mathrm{D} 2 \mathrm{D}}=\sum\limits_{j=1}^{M} P_{j} P_{f}=\sum\limits_{j=1}^{M} P_{j}\left[1-\left(1-\frac{R_{\mathrm{D} 2 \mathrm{D}}^{2}}{R_{\mathrm{BS}}^{2}}\right)^{w_{j}}\right] . (15)

    当文件分成m块时,用户设备在自己的缓存空间里缓存文件的第1块,如图 3所示,假设此后每块文件被选择的情况服从概率P=1/2的0-1分布,在用户已经得到第1块文件后,有1/2的概率得到第2块,有1/4的概率得到第3块,以此类推,用户得到第m块的概率为1/2m-1. 第m块在实际使用之前有一段时间间隔,在(m-1)T秒后才会被得到.

    图  3  文件分块示意图
    Figure  3.  The figure of file chunk

    在(m-1)T秒期间,用户在辅助设备的D2D覆盖范围内至少命中一次的概率可以写为[16]

    \rho_{\mathrm{HE}}=1-\left(1-\frac{{\rm{ \mathsf{ π} }} R_{\mathrm{HE}}^{2}+2 R_{\mathrm{HE}}^{2} V_{\mathrm{HE}}(m-1) T}{{\rm{ \mathsf{ π} }} R_{\mathrm{BS}}^{2}}\right)^{N_{\mathrm{HE}}}. (16)

    如果2RD2D+VHE(m-1)T>2RBS,则有效的D2D覆盖范围不能包含在蜂窝网络中,此时对于第m块文件块来说,与有效的D2D覆盖范围重叠的最小单元数可表示为:

    K_{\text {cell }}=\frac{2 R_{\mathrm{HE}}+V_{\mathrm{HE}}(m-1) T}{2 R_{\mathrm{BS}}}. (17)

    假设D2D有效的覆盖范围被分成Kcell个大小相同的区域,则式(16)可写为:

    \rho_{\mathrm{HE}}=1-\left(1-\frac{{\rm{ \mathsf{ π} }} R_{\mathrm{HE}}^{2}+2 R_{\mathrm{HE}}^{2} V_{\mathrm{HE}}(m-1) T}{K_{\text {cell }} {\rm{ \mathsf{ π} }} R_{\mathrm{BS}}^{2}}\right)^{K_{\text {cell }} N_{\mathrm{HE}}}, (18)

    则辅助设备缓存的缓存命中概率为:

    \begin{aligned} P_{\text {hit }}^{\mathrm{HE}} &=\sum\limits_{j=1}^{M} P_{j}\left(1-P_{\mathrm{c}j}\right)\left(1-P_{f}\right) \rho_{\mathrm{HE}}=\\ & \sum\limits_{j=1}^{M}\left\{P_{j}\left(1-P_{\mathrm{c}j}\right)\left(1-P_{f}\right) \times\right.\\ &\left.\left[1-\left(1-\frac{{\rm{ \mathsf{ π} }} R_{\mathrm{HE}}^{2}+2 R_{\mathrm{HE}}^{2} V_{\mathrm{HE}}(m-1) T}{K_{\text {cell }} {\rm{ \mathsf{ π} }} R_{\mathrm{BS}}^{2}}\right)^{K_{\text {cell }} N_{\mathrm{HE}}}\right]\right\}. \end{aligned} (19)

    那么流行文件块分批缓存策略缓存文件集bi的缓存命中概率为:

    \begin{aligned} &P_{\text {hit }}^{i}=P_{\text {hit }}^{\text {self }}+P_{\text {hit }}^{\text {D2D }}+\frac{1}{2^{m-1}} P_{\text {hit }}^{\mathrm{HE}}= \\ &\quad\left\{\begin{array}{l} \sum\limits_{j=1+(i-1) Ls_{m}}^{i L s_{m}} P_{j}\left(j \in\left(1+(i-1) L s_{m}, \cdots, i L s_{m}\right)\right., \\ \ \ \ \ \left.i \in\left[1, Q / Ls_{m}\right]\right), \\ \sum\limits_{j=1+(i-1) Ls_{m}}^{i L s_{m}} P_{j}+\sum\limits_{j=1}^{M} P_{f} P_{j}+\frac{1}{2^{m-1}} \sum\limits_{j=1}^{M} P_{j}\left(1-\rho_{\mathrm{HE}}\right)\left(1-P_{f}\right) \\ \ \ \ \ \left(j \notin\left(1+(i-1) L s_{m}, \cdots, i L s_{m}\right), i \in\left[1, Q / L s_{m}\right]\right), \end{array}\right. \end{aligned} (20)

    则该策略下系统的平均缓存命中概率为:

    P_{\text {hit }}^{\text {avg }}=\frac{\sum\limits_{i=1}^{Q / Ls_{m}} P_{\text {hit }}^{i}}{Q / L s_{m}} \text { . } (21)

    当用户分批缓存文件时,总体来说流行文件的每个文件被缓存的次数是相同的. 由式(14)、(20)、(21)可知:若要使系统的缓存命中概率最大,就要确保wj尽量大,而文件数Q的数目会直接影响到wj的大小. 当集群内的用户数一定时,若选取缓存的文件数Q过大,则用户过于分散,当文件流行度高时,找到受欢迎的请求文件的概率会很低,系统的缓存命中概率下降;若选取缓存的文件数Q太小,当文件流行度低时,文件被请求的概率基本相当,排序靠后的文件被请求的概率会变低,系统的缓存命中概率也会下降. 所以,可以通过调节参数来调整Q,从而找到使系统的缓存命中概率最大的最佳文件数. 由图 4可知:当文件数为140时,系统的缓存命中概率最大;随着Q的增加,系统的缓存命中概率出现了震荡现象,这是因为文件的请求概率遵循zipf分布,虽然整体的趋势是下降的,但是在文件流行度分布的峰值依然会出现命中概率上升的现象. 文件越多,文件本身分布的影响就会更明显.

    图  4  文件数的选取
    Figure  4.  The selection of file number

    本节讨论了不同状态下的集群间系统性能以及集群内系统性能. 通过仿真实验,对本文提出的FCPhit策略与最流行缓存策略(MPhit)[17]、最优缓存策略(OCPhit)[6]、等概率缓存策略(EPRC)[18]进行对比,研究了系统的缓存命中概率(Phit)与zipf指数(γ)、缓存容量、用户数、文件数、集群个数、辅助设备的移动速度及其数量的关系,以验证FCPhit策略的有效性.

    由4种策略下系统的缓存命中概率与zipf指数的关系(图 5)可知:OCPhit策略下系统的缓存命中概率在zipf指数的低值部分(0.2~0.7)会高于MPhit策略下系统的缓存命中概率,这是因为zipf指数越低,用户请求文件的倾向越不明显,此时MPhit策略丧失了其优势性;随着zipf指数的增长,OCPhit、MPhit、FCPhit策略下系统的缓存命中概率随之上升;EPRC策略下系统的缓存命中概率没有变化是因为该策略下用户请求文件时是等概率请求的,与zipf指数无关.

    图  5  4种策略下zipf指数对系统的缓存命中概率的影响
    Figure  5.  The impact of the zipf parameter on the system's cache hit probability under four strategies

    由4种策略下系统的缓存命中概率与缓存容量的关系(图 6)可知:(1)随着用户缓存容量的增加,系统的缓存命中概率增加,这是因为缓存容量的增大意味着用户可以用于缓存的空间越多,即用户可以在其缓存空间内缓存更多的文件,那么用户能获取请求文件的概率就更大. (2)FCPhit策略下系统的缓存命中率比其他策略下系统的缓存命中率更高.

    图  6  4种策略下用户缓存容量对系统的缓存命中概率的影响
    Figure  6.  The impact of cache capacity on the system's cache hit probability under four strategies

    由4种策略下系统的缓存命中概率与用户数的关系(图 7)可知:(1)OCPhit、FCPhit、EPRC策略下系统的缓存命中概率均随着用户数的增加而不断提高,这是因为用户数的增加意味着在一定的区域内周围用户更加密集、用户提供的总体缓存空间更大,缓存的文件更多,所以用户能够轻易地从周围用户的缓存空间里获取相应的请求文件,直接提高了用户从周围用户的缓存空间中找到请求文件的概率. (2)MPhit策略下系统的缓存命中概率不会受用户数量的影响,这是由于每个用户都缓存了相同的最受欢迎的部分文件.

    图  7  4种策略下用户数对系统的缓存命中概率的影响
    Figure  7.  The impact of the number of uses on the system's cache hit probability under four strategies

    由4种策略下系统的缓存命中概率与文件数的关系(图 8)可知:(1)4种策略下系统的缓存命中概率均随着文件总数的增加而呈下降趋势. 这种现象的出现是因为文件总数的上升使得流行趋势不明显,用户没有显示出对哪些文件有一定的偏好. (2)FCPhit策略下系统的缓存命中概率始终高于其他3种策略,这是因为文件数的增加使得决定分批缓存的文件库增多,用户在周围用户获取请求文件的可能性更大.

    图  8  4种策略下文件数对系统的缓存命中概率的影响
    Figure  8.  The impact of the file number on the system's cache hit probability under four strategies

    由系统的缓存命中概率与集群数量的关系(图 9)可知:随着集群数量的增多,FCPhit策略下系统的缓存命中概率随之提升. 出现这种现象的原因是:在单个基站覆盖范围内且系统的用户设备数量不变的前提下,随着集群数量的增加,每个集群的用户设备数量将会减少,集群内的文件库总量也会对应减少,但在同一集群里的用户请求仍然有高度相似性. 所以,即使文件库的流行度低,系统的缓存命中概率依然上升.

    图  9  3种zipf指数下集群数量对系统的缓存命中概率的影响
    Figure  9.  The impact of the cluster number on the system's cache hit probability under three zipf parameter

    由3种移动速度下系统的缓存命中概率与辅助设备的关系(图 10)可知:随着辅助设备数量的增加,用户的系统缓存命中概率增加. 出现这种情况的原因为:(1)当辅助设备数量增加时,有更多的机会与用户设备进行通信;(2)随着辅助设备的移动速度的增加,辅助设备的传输范围随之增加,用户设备和辅助设备可以相互命中的概率增加,从而系统的缓存命中概率增加.

    图  10  3种移动速度下辅助设备个数对系统的缓存命中概率的影响
    Figure  10.  The impact of the helper number on the system's cache hit probability under three moving rate

    本文分析了将相似用户进行集群的必要性和有效性,同时,为了避免D2D资源的浪费,以最大化D2D网络的系统缓存命中概率为目标,提出了一种基于辅助设备的D2D集群的流行文件块分批缓存策略(FCPhit). 由仿真结果可知FCPhit策略能够有效提高网络的系统性能:对比最流行缓存策略(MPhit)、最优缓存策略(OCPhit)、等概率缓存策略(EPRC),在相同的zipf指数、缓存容量、用户数、文件数的条件下,FCPhit策略下系统的缓存命中概率均有很大提升;同时,随着集群数量和系统中移动辅助设备数量的增加,系统的缓存命中概率也相应增大. 然而,本文的模型是理想化的,例如,用户请求文件时只遵循简单的zipf分布、用户集群的理想化. 此外,移动辅助设备的加入会相应增加系统的能耗和成本,如何在保证缓存命中概率的同时降低能耗和成本也将是未来研究的方向. 同时,在未来的研究中,应使用更多偏向现实化的模型,并在系统模型中考虑传输中断、传输延迟和用户的差异性等现实性情况.

  • 图  1   用户集群图

    Figure  1.   The figure of user cluster

    图  2   示例分批缓存

    Figure  2.   The example for batch cache

    图  3   文件分块示意图

    Figure  3.   The figure of file chunk

    图  4   文件数的选取

    Figure  4.   The selection of file number

    图  5   4种策略下zipf指数对系统的缓存命中概率的影响

    Figure  5.   The impact of the zipf parameter on the system's cache hit probability under four strategies

    图  6   4种策略下用户缓存容量对系统的缓存命中概率的影响

    Figure  6.   The impact of cache capacity on the system's cache hit probability under four strategies

    图  7   4种策略下用户数对系统的缓存命中概率的影响

    Figure  7.   The impact of the number of uses on the system's cache hit probability under four strategies

    图  8   4种策略下文件数对系统的缓存命中概率的影响

    Figure  8.   The impact of the file number on the system's cache hit probability under four strategies

    图  9   3种zipf指数下集群数量对系统的缓存命中概率的影响

    Figure  9.   The impact of the cluster number on the system's cache hit probability under three zipf parameter

    图  10   3种移动速度下辅助设备个数对系统的缓存命中概率的影响

    Figure  10.   The impact of the helper number on the system's cache hit probability under three moving rate

  • [1]

    CISCO. Cisco annual internet report (2018-2023) White Paper[Z/OL]. (2020-03-09)[2020-11-10]. https://www.cisco.com/c/en/us/solutions/collateral/executive-perspectives/annual-internet-report/white-paper-c11-741490.html.

    [2]

    ZHANG X Y, WANG Y, SUN R J, et al. Clustered device-to-device caching based on file preferences[C]//Procee-dings of the 2016 IEEE 27th Annual International Symposium on Personal, Indoor, and Mobile Radio Communications. Valencia, Spain: IEEE, 2016: 1-6.

    [3] 郭蕊, 朱贺新, 王笑洋. 5G网络中D2D通信资源分配的研究现状[J]. 北京工业职业技术学院学报, 2017, 16(1): 32-35;46. https://www.cnki.com.cn/Article/CJFDTOTAL-BGZJ201701009.htm

    GUO R, ZHU H X, WANG X Y. Review of research on D2D communication resource scheuling in 5G network[J]. Journal of Beijing Polytechnic College, 2017, 16(1): 32-35;46. https://www.cnki.com.cn/Article/CJFDTOTAL-BGZJ201701009.htm

    [4]

    ZHANG X, WANG J Q. Heterogeneous statistical QoS-Driven resource allocation for D2D cluster-caching based 5G multimedia mobile wireless networks[C]//Procee-dings of the 2018 IEEE International Conference on Communications. Kansas City, MO: IEEE, 2018: 1-6.

    [5]

    AMER R, ELSAWY H, BENNIS M, et al. On minimizing energy consumption for D2D clustered caching networks[C]//Proceedings of the 2018 IEEE Global Communications Conference(GLOBECOM). Abu Dhabi, United Arab Emirates: IEEE, 2018: 1-6.

    [6]

    KOMAL S K, YI Y, ABBAS J. On the application of a agglomerative hierachical clustering for cache-assisted D2D networks[C]//Proceedings of the 2019 16th IEEE Annual Consumer Communications & Networking Conference. Las Vegas: IEEE, 2019: 1-6.

    [7]

    GEORGIOS S P, GEORGE L, TAO M X, et. al. The role of caching in future communication systems and networks[J]. IEEE Journal on Selected Areas in Communication, 2018, 36(6): 1111-1125. doi: 10.1109/JSAC.2018.2844939

    [8]

    AMER R, BUTT M M, BEENIS M, et al. Inter-cluster cooperation for wireless D2D caching networks[J]. IEEE Transactions on Wireless Communications, 2018, 17(9): 6108-6121. doi: 10.1109/TWC.2018.2854603

    [9]

    ZHENG C, YANG H, YAN C, et al. Cluster-oriented device-to-device multimedia communications: joint power, bandwidth, and link selection optimization[J]. IEEE Transactions on Vehicular Technology, 2018, 67(2): 1570-1581. doi: 10.1109/TVT.2017.2762745

    [10]

    WANG T, WANG Y F, WANG X B, et al. A detailed review of D2D cache in helper selection[J]. World Wide Web, 2020, 23: 2407-2428. doi: 10.1007/s11280-019-00756-z

    [11]

    LI H, SONG Y, RAMAMRITHAM K. VeShare: a D2D infrastructure for real-time social-enabled vehicle networks[J]. IEEE Wireless Communications, 2016, 23(4): 96-102. doi: 10.1109/MWC.2016.7553032

    [12]

    NSHIMIYIMANA A, AGRAWAL D, ARIF W. Comprehensive survey of V2V communication for 4G mobile and wireless technology[C]//Proceedings of the 2016 International Conference on Wireless Communications, Signal Processing and Networking(WiSPNET). Chennai, India: IEEE, 2016: 1722-1726.

    [13]

    CHEN X L, SONG X S, JIA C, et al. Device to device networks with cache-enabled and self-sustained mobile helpers[J]. IEEE Access, 2019, 7: 93820-93829. doi: 10.1109/ACCESS.2019.2926771

    [14]

    VO N S, PHAN T M, DANG X K, et al. Social-aware spectrum sharing and caching helper selection strategy optimized multicast video streaming in dense D2D 5G networks[J]. IEEE Systems Journal, 2020, 10: 1-12. http://www.researchgate.net/publication/342061679_Social-Aware_Spectrum_Sharing_and_Caching_Helper_Selection_Strategy_Optimized_Multicast_Video_Streaming_in_Dense_D2D_5G_Networks

    [15]

    KIM S, GO E, CHO H, et al. A study on D2D caching system with mobile helpers[C]//Proceedings of the 2018 Tenth International Conference on Ubiquitous and Future Networks. Prague, Czech Republic: IEEE, 2018: 630-633.

    [16]

    MARTIN P. The porter stemming algorithm[R/OL]. (2006-11-01)[2020-11-10]. https://tartarus.org/martin/PorterStemmer/.

    [17]

    LIN X S, XIA J J, WANG Z. Probabilistic caching placement in UAV-assisted heterogeneous wireless networks[J]. Physical Communication, 2019, 33: 54-61. doi: 10.1016/j.phycom.2019.01.004

    [18]

    BLASCO P, GUNDUZ D. Learning-based optimization of cache content in a small cell base station[C]//Procee-dings of the 2014 IEEE International Conference on Communications. Sydney, NSW: IEEE, 2014: 897-1903.

  • 期刊类型引用(0)

    其他类型引用(1)

图(10)
计量
  • 文章访问数:  504
  • HTML全文浏览量:  156
  • PDF下载量:  54
  • 被引次数: 1
出版历程
  • 收稿日期:  2020-11-12
  • 网络出版日期:  2021-07-05
  • 刊出日期:  2021-06-24

目录

/

返回文章
返回