更全的杂志信息网

命名数据网络中的一种主动拥塞控制策略

更新时间:2009-03-28

1 引言

随着互联网应用与技术的高速发展,基于TCP/IP的体系结构逐渐暴露出诸多问题,比如,IP地址枯竭、安全性差、移动性差、扩展性差等[1]。为了彻底解决这些问题,“革命式”的信息中心网络应运而生,其中,命名数据网络是目前最受广泛关注和研究的未来互联网体系架构之一[2-3]

NDN继承了IP体系结构的沙漏模型,区别在于用数据取代了细腰处的IP地址,并将安全内置于数据中,路由基于数据的名字而不是IP地址[3]。另外,NDN还引入了网内缓存机制,路由器可以缓存经过的数据,并响应请求。又因为NDN内在地支持多路径转发,使得NDN具有信源不可控的特性,这样会导致网络中存在大量的冗余信息存储及转发,不可避免地会出现网络拥塞。同时,拥塞控制对保证网络的高效性,提高网络的鲁棒性和稳定性具有重要作用,因此NDN的拥塞控制问题逐渐得到了各学者的广泛关注。

目前,NDN中的拥塞控制主要分为两种方式:由请求者驱动的拥塞控制和逐跳的兴趣包整形机制。第一种方式是借鉴传统TCP的设计,通过超时机制RTO来确认丢包的发生,并通过降低发送端的发送速率来减低网络流量,进而缓解网络拥塞。文献[4]提出的兴趣包控制协议(Interest Control Protocol,ICP)通过调节兴趣包的发送速率实现了基于窗口的流量控制,同时也证明了ICP能实现较好的带宽利用率。文献[5]基于超时机制设计了CCTCP(Content Centric TCP)协议,CCTCP通过替每个流设置多个拥塞窗口和RTO计时器,来控制兴趣包的发送速度。另外,CCTCP设计了一种预测机制来估算RTO值,但因为要维护多个计时器使得开销过大。上面提到的由请求者驱动的、基于RTO超时机制的拥塞控制方式已经被证明不适合用于NDN网络,因为NDN特殊的传输方式不同于传统网络,适用于端到端通信的传输协议在NDN中的实现是非常困难的。首先NDN中没有报文到达确认机制,因此发送端只能通过RTO计时器来判断拥塞的发生,但是在NDN中由于没有确定的源,导致RTT的估算非常困难[6],同时,使用RTO机制还有一个缺陷是其超时原因是不确定的。因此,相对于第一种隐式的拥塞控制,目前研究NDN的学者们更加看好逐跳的显式拥塞控制[7]。文献[8]提出通过逐跳地控制兴趣包速率来实现NDN的拥塞控制,所设计的HoBHIS(Hop-By-Hop Interest Shaping mechanism)通过检测路由器的传输队列长度来计算兴趣包速率,由于在NDN中一个兴趣包最多返回一个数据包,因此可以通过调节兴趣包速率来控制数据包的返回速率。文献[9]在每个流公平共享带宽的基础上,提出了一种兴趣包转发策略。当兴趣包速率超过路由器允许的速率时,向下游路由器发送NACK(Negative ACKnowledgment),下游路由器收到之后调节兴趣包的速率并寻找其他可用的接口转发兴趣包,以减少单条链路的负载。文献[10]提出了一种结合发送端与路由器端的拥塞控制机制HR-ICP(Hop-by-hop and Receiverdriven Interest Control Protocol),HR-ICP除了在发送端通过拥塞窗口调节兴趣包速率,还能在中间节点检测拥塞,使得HR-ICP能比ICP更快地发现并响应拥塞。文献[8,10-12]在中间路由器检测并调整兴趣包的转发速率来控制网络拥塞,已经获得了较好的性能,但是没有考虑数据流之间的公平性。文献[9]为每个数据流分配了公平的带宽,但是这样无区别地分配固定的带宽,将会导致网络资源的浪费。为了解决这个问题,受传统公平队列调度算法的启发,提出了一种路由器端的拥塞控制算法—NWFQ。NWFQ主要包括两方面内容:(1)在路由器端,通过动态调整数据流的权重来调节兴趣包调度顺序,在尽可能保证为每个流提供所需带宽的基础上,在输出端口利用令牌桶算法对超高速流进行降速限制。(2)在兴趣包/数据包中扩展两个字段,用于记录拥塞信息和由当前网络反馈的最佳兴趣包速率。最后,通过显式反馈机制将拥塞信息反馈给下游节点/请求端,这样请求端可以根据网络实时的变化来调节兴趣包的发送速率,从而提高网络的鲁棒性和吞吐量。

他谈到,对于干白葡萄酒,8月的天气使得葡萄尤其是白葡萄得以“呼吸”,以便保留清爽的酸度。8月最后几天采收的葡萄压榨所得的果汁质量优异,之后两周的天气也很好。这便预示着胜利!至于红葡萄酒,美乐在9月最后十天开始采摘。赤霞珠和品丽珠在10月上半月开始采摘。其酿酒潜力极佳,但是我们还希望接下来的6个星期没有恶劣天气的影响。而甜白葡萄酒,赛美蓉和长相思慢慢达到最佳成熟度。像每年一样,贵腐菌主宰着酒的质量,但是今年的气候条件非常适合其生长……

2018年5月2日,习近平总书记在北京大学考察时勉励广大青年要成为实现中华民族伟大复兴的生力军,肩负起国家和民族的希望。他指出,教育兴则国家兴,教育强则国家强。我们的教育要培养德智体美劳全面发展的社会主义建设者和接班人。

2 算法设计

2.1 加权公平排队算法

1.2.1 MTT检测细胞增殖活性 采用96孔板检测细胞增殖活性。将铺好的细胞在37℃、5%CO2的孵箱内培育2~3 h,待其充分贴壁后,用PBS清洗3次。然后向每孔加0.1 ml的PBS和10.0 μl的MTT染液,在细胞培养箱中孵育6 h。然后每孔加0.1 ml酸化的异丙醇,振荡混匀,使其充分溶解。运用酶联检测仪检测各孔的光密度(optical density,OD)值,检测波长570 nm,参考波长630 nm。

 

为了在各个流之间提供公平的调度和保证优先级高的数据优先被服务,在入队之前,WFQ计算每个数据包的虚拟调度时间(Virtual Schedule Time,VST)(见式(1)),VST决定了这个包出队的时间顺序。其中VST′是队尾时间,记录进入队列之前此队列的虚拟调度时间总和。scaling是缩放比例值,用来缩放虚拟调度时间,scaling与数据包的优先级成反比。new_packet_length是当前数据包的长度,WFQ规定优先调度VST小的数据包[13]。设想流a拥有较低的优先级和较小的平均包长,流b具有较高的优先级和较大平均包长,当流a小于流b的虚拟调度时间时,流a可以通过不断增大发送速率来占用网络资源,使得高优先级流的调度滞后。现如今很多的多媒体应用的数据包符合流b的情况,这会导致这些应用的时延无法得到保证。因此,根据分组大小和优先级来决定调度是不够的,还应考虑速率限制等因素来抵制贪婪流。

马来西亚森林树种以龙脑香科为关键性种群,在海拔300 m左右的低地至海拔1 300 m左右的高地森林被称为龙脑香林。其实高大的龙脑香乔木只是这个家族中的16个属之一,已知的树种就大约有695种,是世界木材贸易中最重要的树种。如低地龙脑香林区,一公顷这样的森林至少有240个不同的树种。

2.2 NWFQ算法

calculate output_rate:γi← unit_weight_service*weight_of_interest

  

图1 NWFQ拥塞控制模型

从图1中可以看到,NWFQ算法是在输出接口对兴趣包/数据包的转发速率进行限制,RL模块的具体实现包括NWFQ队列调度和令牌桶技术两部分。之所以采用NWFQ队列是因为其具有区分服务特性,在网络发生拥塞的不利情况下,它可以优先调度需要传输的紧急数据,保证紧急数据的服务带宽。兴趣包在RL模块中的处理过程如图2所示(数据包类似)。

在《怎么办?》一文中,列宁系统地阐述了灌输理论,分析了为什么要“灌输”、怎样“灌输” 以及“灌输”的可行性等一系列问题。

  

图2 兴趣包在RL模块中的处理过程

其中,NWFQ算法的核心体现在加入令牌的速率。从NWFQ队列中调度的兴趣包,若未超过路由器公平速率则直接转发,若超过则进入拥塞处理过程,经过令牌桶整形后再转发。这一判断的前提是路由器发生了拥塞,如果路由器没有拥塞,就直接转发,不用关注数据流的速率。只有在路由器发生拥塞的时候,为了阻止引起其他路由器发生拥塞才需要对数据流进行整形,同时为了缓解当前路由器的拥塞,需要借助显式反馈机制告知下游路由器减小转发速率,才不至于使得排队队列(时延)继续增长。整形后的速率就是网络希望的速率,这个速率是由NWFQ算法计算得到的,并且不会造成网络拥塞。经过整形,可以平滑网络流量,降低上游路由器的拥塞。同时,采用令牌桶技术,将超速的兴趣包加入缓存队列等待,而非直接丢弃,可以减少突发传输导致的丢包。下面是NWFQ算法的具体流程。

Step 1 Initialize:unit_weight_servic←0,fair_rate←0,load of route:sumR←0

Input:nstreams:r1,r2,…,rn

Step 2 forifrom 1 to n //Calculate the load of the router

sumR←sumR+ri

end for

Step 3 if router becomes congested Then

calculate:unit_weight_service,fair_rate,weight_of_interest

Step 4//Punish greedy flow

ifriis speeding(ri>fair_rate)Then

NWFQ拥塞控制算法运行在NDN的路由器上,它继承WFQ算法的思想,根据NDN名字前缀的不同将兴趣包分为不同的流。并在NDN原有路由模型的基础上增加了速率限制(Rate Limit,RL)模块来实现惩罚机制。当遇到突发流量导致路由器发生拥塞时,RL模块为每个路由节点计算一个公平速率 f来区分贪婪流(输入速率超过公平速率)与非贪婪流,对前者进行惩戒,降低它的权重(此处的权重由数据速率和惩罚函数所共同决定),并在输出接口实现令牌桶对转发速率进行限制,将兴趣包/数据包暂存于软件队列中,避免进一步的拥塞发生,从而减小丢包数,提高网络吞吐量。NDN中的NWFQ拥塞控制模型如图1所示。

update interest:penalty_rate← γi

congestion_contribution←congestion_contribution+1

//send NACK

send NACK(penalty_rate)to downstream router

end if

end if

Step 5 if Interest satisfied Then //Send Data

if congestion_contribution>0 Then

copy congestion_contribution and penalty_rate to Data packet

end if

send Data packet to consumer

加权公平排队WFQ是一种路由器公平队列调度算法,也是一种拥塞管理算法,由于其能够根据各数据流的优先级进行区分服务而引起了广大研究者的关注。该算法根据流特性对其进行分类,不同的流经过哈希函数映射进入不同的动态队列。每个流所分配到的带宽资源遵循最大-最小公平分配,且WFQ允许其他流使用某条流剩余的带宽[13]

end if

2.2.1 确定流i的权重

 

其中,wi(t)是数据流i的权重,ri(t)是兴趣包i的输入速率,θ是数据流的优先值,惩罚函数 p(ri(t))是单调递减的正函数。当客户端的输入速率ri(t)超过阈值时,其相应的权重随速率的增大而减小,也就是说,增大发送速率并不能获得更大的输出速率,甚至会降低输出速率。这样能防止贪婪用户大肆抢占网络资源,达到规范用户行为的目的,这里 p(ri(t))=1/ri(t)。还可以考虑网络客户端或数据流的优先级,优先级越高权重越大,为方便计算,本设计暂不考虑优先级(即θ=1),所以修改后的权重为wi(t)=1/ri(t)。

2.2.2 计算转发速率γi

因为发送兴趣包/数据包是以包为单位,而令牌桶的实现是以字节为单位,因此在执行完算法之后还需进行上述单位转换。

 

其中,vi表示流i的转发速率,λ是单位时间内为单位权值提供的输出。即拥塞时,假设兴趣包i的权值为w,所在路由器的单位权值服务量为λ,则兴趣包i的输出速率为(λ×w)。即当路由器负载超过链路带宽时,NWFQ将为贪婪流计算出权值,权值wi(t)决定数据流的转发速率。

进入实施阶段,施工单位要会同业主、监理单位对输水线路作全面的踏勘摸底,了解地貌、地物和设施现状,为编制施工方案和实施打好基础。

(2)路由器输出函数

 

(1)路由器负载sumR表征路由器的负载,当sumR≤C时,路由器工作在正常状态,所有流都能得到完全的输出。当sumR>C时,路由器发生拥塞,需要执行拥塞控制算法NWFQ。

 

输出函数G(λ,r)表征路由器的总输出量。假设网络拥塞很严重时,每个流的速率都超过了公平速率,即所有流都被降速。此时有 ∀i,∃λ/ri≤ri⇒λ≤,即λ≤r。同理,所有流都未超速时,有∀i,∃λ/ri>ri⇒λ>r即λ>r。当一部分流(n-k)被惩罚时,有:∃k,s.t.λ/r(k)>r(k)且 λ/r(k+1)≤r(k+1),即 r<λ≤r。根据以上,拥塞函数可以展开如下。

 

学者们对母语在第二语言迁移中所起的作用的研究,可以帮助老师更清楚地认识到学生产生偏误及语言学习的难点和产生障碍的原因,及时帮助学生纠正错误,避免再次发生类似的错误,从而帮助老师更好地展开教学,使学生更好、更快地掌握第二语言。

 

(3)单位权值服务量λ

 

单位权值服务量只在网络拥塞时才需要计算,且λ和 f都是所有流队列所共享的。其中,λ主要用于确定路由器的公平速率 f,f主要用于界定贪婪流和非贪婪流。也就是说,网络拥塞时,当输入速率等于公平速率时,数据流全部输出,即 vi=ri⇒λ/f=f⇒λ=f2;当输入速率大于公平速率时,执行NWFQ算法;当输入速率小于公平速率时,输出(转发)速率等于输入速率。

对于一个企业来说,是否实施精益生产、精益生产实施到何种程度、是否继续实施下去、由何人来主持整个精益变革,这些问题的最终决定权都在这个企业的领导层手中,领导层的支持是企业实施精益转型的前提。除此以外,领导层支持程度对于精益生产实施的影响主要表现在:当精益转型实施之后,由于库存和在制品的大量减少,从会计角度来说企业利润会大幅下降[1],在这种情况下领导者是否能够坚持实施精益生产。

(4)公平速率 f

 

(5)兴趣包的转发速率γi

首先,随着节目互动性的加强,在传播过程中受众的地位越来越高,受众的需求对节目制播的影响越来越大。在现有文献中,朱金平把“受众对媒体的信息传播和影响”定义为逆向传播[2]。他从物理学原理、社会学原理和心理学原理三个方面论证了逆向传播的必要性。虽然物理学原理角度有些牵强,但后两个角度颇具创新意义,值得深入探讨。

其中,r=(r(1),r(2),…,r(n))是r=(r1,r2,…,rn)递增序列的重新排列。当负载不超过链路带宽时,每个流都能正常输出,此时路由器拥塞程度随着负载的增大而加深,即输出函数与负载成正比;当负载超过链路带宽时,路由器发生拥塞,部分流得不到完全的输出,随着负载的增加,路由器拥塞加深,吞吐量降低,此时输出函数与负载成反比。因此输出函数还可以用式(7)表示。由式(6)、(7)可得当前路由器的单位权值服务量。

随着环保要求的日益提高,当前涂料行业需要从两个方面防治VOCs:第一要大力发展水性涂料,并且在涂料生产中采用先进的密闭设备和工艺,从源头上减少VOCs的产生;第二要不断进行技术研发,积极研究如何降低VOCs的净化成本并且提高净化效率,从而能够切实地减少环境污染,为人民身体健康和国家环境保护作出积极贡献。

 

在给定瓶颈链路的带宽为C,兴趣包发送速率向量为M ,n个流的输入速率向量r=(r1,r2,…,rn)时,经算法改进的兴趣包转发速率γ=(γ12,…,γn)的计算步骤如下。

2.3 显式反馈机制

当网络拥塞时,由于NDN的多路径转发特性和带宽的不同,一个兴趣包可能产生多个反馈,这样会导致网络中存在大量的反馈和反馈引起的重传,这样不但会加重网络拥塞,还会增大终端和路由器的开销。为了避免这种多次反馈问题,本文扩展了ndnSIM1.0[14]中的兴趣包,添加了两个字段:惩罚速率(Penalty Rate)和拥塞贡献(Congestion Contribution),扩展后的兴趣包结构如图3所示。

  

图3 扩展之后的兴趣包

虚线部分是因实验需要添加的两个字段,其中,Penalty Rate是经NWFQ算法计算得到的兴趣包速率,Congestion Contribution是兴趣包导致拥塞的次数。请求端发送兴趣包时,将惩罚速率R(Penalty Rate)初始化为兴趣包的发送速率,拥塞贡献CC(Congestion Contribution)置零,当兴趣包经过一个路由器并且此路由器发生拥塞时,如果兴趣包i的输入速率ri超过了公平速率 f,就说明兴趣包i的输入速率过高,即认为兴趣包i对网络拥塞做出了“贡献”,然后将惩罚速率R更新为NWFQ计算得到的转发速率γi并将拥塞贡献CC加1,即R=min(R,γi)。同时,向该兴趣包进入的接口发送拥塞通知NACK,NACK中封装的是惩罚速率R,并且生存时间TTL=2,即只能转发一跳。下游路由器收到NACK后,提取R作为新的令牌加入速率。这样可以减少更多的兴趣包/数据包进入拥塞区域,暂时缓解网络拥塞。但是这样也有可能导致本来不拥塞的下游节点产生拥塞,因此,为了从根本上解决拥塞,应根据网络状况减低请求端的兴趣包发送速率。

在体育课的教学过程中,我发现有些学生因为自己已经掌握学习的技能,其常会和身边的学生交头接耳进行说话。而针对这种现象,我运用组间评价的教学方式,提升学生体育学习的专注度,增强体育教学的效果。

为了不产生多余的流量,本设计利用数据包将新的兴趣包发送速率返回请求端。即当兴趣包找到匹配的数据包时,检查兴趣包中的拥塞贡献值,若大于零,就把拥塞信息字段复制到数据包中并按原路返回给请求端;若为零,则直接返回数据包。这样当请求端收到数据包后,就可以取出R值,并把这个值作为新的兴趣包发送速率。

由于网络的链路带宽不同,兴趣包有可能连续被NWFQ算法所“惩罚”,但是惩罚速率R记录的是兴趣包最后一次被“惩罚”之后的速率(最小速率),所以请求端以速率R发送兴趣包时,能将网络拥塞的概率降到最低。

根据上边对其语言局限性的分析,下边结合具体的语境及作者的创作风格对《警察和赞美诗》的语言重新赏析如下:

3 仿真与分析

为验证NWFQ算法的有效性,本文在ndnSIM1.0中实现了NWFQ算法。ndnSIM是基于NS-3的模块化的仿真工具,能仿真多样化的部署场景,支持大范围的NDN实验。实验采用图4所示的单瓶颈链路拓扑,其中,消费者C1至C10以每秒3 000个兴趣包的速率向数据生产者请求不同的数据,数据请求服从齐夫分布,链路传播时延均为10 ms,包缓冲区大小设置为带宽和延迟的乘积。转发策略采用BestRoute,缓存放置、替换策略分别采用LCE(Leave Cache Everywhere)和LRU(Least Recently Used)[15]。为了验证算法在网络拥塞情况下的性能,与文献[4,10]中的ICP和HR-ICP进行对比实验,考虑的性能指标有:瓶颈链路利用率和丢包率。采用上述参数,分别仿真实现瓶颈带宽从10 Mb/s增加到60 Mb/s时的仿真场景。

  

图4 单瓶颈链路拓扑

因为NWFQ算法需要计算各路由器的公平速率,但公平速率随着流的数量也在发生变化。为了更好地论证算法的性能,有必要分析一下当流数目变化条件下算法的稳定性。场景二使用与场景一基本相同的实验参数,但是模拟一个更加拥塞的网络环境。链路传播时延设为30 ms,消费者分别同时发送10~100条内容大小为200个数据块的流,分析该场景下的平均流完成时间。

图5给出了消费者在不同瓶颈链路带宽时的瓶颈链路利用率。由图中可见,随着瓶颈带宽的增加,NWFQ的瓶颈链路利用率逐渐上升并接近95%,这是由于NWFQ的主动拥塞检测机制和显式反馈机制,使得NWFQ能够更好地适应网络变化。ICP的瓶颈链路利用率从85%快速降低到79%,这是因为ICP采用拥塞窗口,慢启动会导致平均链路利用率较低;而且随着瓶颈带宽的增大,拥塞窗口和链路缓存区均增大,所以消费者发送的兴趣包增多,但是由于网络拥塞会导致兴趣包的排队时间大大增加,相应的RTT随之增大,从而降低了ICP的瓶颈链路利用率。HR-ICP由于在ICP的基础上增加了中间节点检测拥塞的功能,能更好地利用带宽,但是它仍然采用发送端的拥塞窗口来调节发送速率,且调节的幅度不确定,只是一种对可用带宽的猜测,相比NWFQ直接将网络允许的速率反馈回发送端,HR-ICP并没有充分地利用带宽。另外,在图中可以看到,ICP曲线的波动幅度较大,表明NWFQ和HR-ICP比ICP具有更好的稳定性。这是因为基于路由器的逐跳整形机制相比基于发送端的拥塞窗口,前一种方式更适合NDN的传输方式。

  

图5 瓶颈链路利用率

如图6所示,ICP的丢包率最高,这是因为ICP在丢包造成超时后才能检测到拥塞并对其进行处理。采用NWFQ算法时丢包率最低,这是因为NWFQ将超过路由器阈值的兴趣包/数据包缓存起来,留待稍后发送,而不是直接丢弃,这样不仅可以平滑网络流量,降低上游节点的拥塞,还能减少因突发流量造成的丢包。同时用数据包将网络允许的发送速率带回发送端,可以从源头上解决拥塞。HR-ICP的性能介于两者之间,由于HRICP相比ICP可以更快发现拥塞,因此可以及时调节发送窗口,避免大部分丢包。

图7表示平均流完成时间随着流个数增加的变化。由图中可以看出随着流个数的增加,ICP、HR-ICP和NWFQ的平均流完成时间均增加。且NWFQ的平均完成时间最短,表明NWFQ能更好地利用网络带宽。另外,从图中可以看到当流个数增加到40以后,平均流完成时间均大幅度增加,这是因为这时网络发生了拥塞。从图中可以看到,NWFQ曲线斜率在80个流以后就逐渐趋于平滑,相比ICP和HR-ICP的增长趋势,表明NWFQ能更快速地适应网络变化。

  

图6 丢包率

  

图7 平均流完成时间

4 结束语

本文将传统IP网络中的路由器队列调度算法引入NDN并提出了一种新的拥塞控制算法NWFQ。该算法为每个路由器计算一个公平速率以区分贪婪流与非贪婪流,并通过惩罚函数来修改数据流的权重,进而调整各数据流分到的带宽。当网络拥塞时,可以对资源进行尽可能公平的分配。NWFQ还提出了一种能有效减少反馈与重传次数的显式反馈机制。仿真结果表明该算法在保持高链路利用率的同时,拥有较低丢包率和较短平均流完成时间,能显著提高网络的QoS性能。

秋深了!红琴爱上了照镜子,涂口红,频率越来越高,每次她都哧哧地笑着。她那件红衬衫领口的钮扣永远敞开着,露出一个三角形的前胸,饱满丰润,富有弹性。肌肤白里透红,能吹弹得出一泓清水来,不用抚摸就能感觉得出那种光滑与娇嫩。情欲得到了满足,她的脸上总是浮着幸福的红晕与一点少妇的光彩。每次回村子里她都会在红丝带上打个结,那红绳子上已密密麻麻地打了不少结。人都以为自己得到的东西就是世界上最好的东西,自己得到的幸福是世界上真正的幸福,希望全世界的人都像自己一样。情人眼里出西施的错觉,让她觉得那个砖瓦厂的老板是天神,而和尚出身的风影则是个不可理喻的怪胎。

参考文献

[1]谢高岗,张玉军,李振宇,等.未来互联网体系结构研究综述[J].计算机学报,2012,35(6):1109-1119.

[2]Jacobson V,Smetters D K,Thornton J D,et al.Networking named content[C]//Proceedings of the 5th International Conference on Emerging Networking Experiments and Technologies.New York:ACM,2009:1-12.

[3]Zhang Lixia,Jacobson V,Zhang Beichuan,et al.Named Data Networking(NDN) project,NDN-0001[R].California:PARC,2010.

[4]Carofiglio G,Gallo M,Muscariello L.ICP:design and evaluation of an interest control protocol for contentcentric networking[C]//Computer Communications Workshops,Proceedings of IEEE INFOCOM.Orlando,FL:IEEE,2012:304-309.

[5]Saino L,Cocora C,Pavlou G.CCTCP:a scalable receiverdriven congestion control protocol for content centric networking[C]//Proceedings of IEEE ICC.Budapest:IEEE,2013:3775-3780.

[6]Braun S,Monti M,Sifalakis M,et al.An empirical study of receiver-based AIMD flow-control strategies for CCN[C]//International Conference on Computer Communications and Networks.Nassau:IEEE,2013.

[7]张成晨,王雷,吕威,等.面向多业务的内容中心网络拥塞控制策略[J].计算机工程,2016,42(4):79-82.

[8]Rozhnova N,Fdida S.An effective hop-by-hop interest shaping mechanism for CCN communications[C]//IEEE Conference on Computer Communications.Orlando,FL:IEEE,2012:322-327.

[9]Yi C,Afanasyev A,Moiseenko I,et al.A case for stateful forwarding plane[J].Computer Communications,2013,36(7):779-791.

[10]Carofiglio G,Gallo M,Muscariello L.Joint hop-by-hop and receiver-driven interest control protocol for contentcentric networks[J].ACM Sigcomm Computer Communication Review,2012,42(4):37-42.

[11]Ren Yongmao,Li Jun,Shi Shanshan,et al.An interest control protocol for named data networking based on explicitfeedback[C]//IEEE Symposium on ArchitecturesforNetworking and CommunicationsSystems(ANCS’15).Oakland,CA:IEEE,2015:199-200.

[12]Zhou Jianer,Wu Qinghua,Li Zhenyu,et al.A proactive transport mechanism with explicit congestion notification forNDN[C]//IEEE InternationalConference on Communications.London:IEEE,2015:5242-5247.

[13]舞绮.J57大战QoS之第二话:加权公平队列(WFQ)[EB/OL].[2016-07-01].http://blog.sina.com.cn/s/blog_5dab3b5-40101917f.html.

[14]Afanasyev A,Moiseenko I,Zhang Lixia.ndnSIM:NDN simulator for NS-3:NDN-0005[R].California:PARC,2012.

[15]胡骞,武穆清,郭嵩,等.一种用于内容中心网络的缓存随机放置策略[J].西安电子科技大学学报,2014,41(6):131-136.

 
王文静,雒江涛
《计算机工程与应用》2018年第10期文献

服务严谨可靠 7×14小时在线支持 支持宝特邀商家 不满意退款

本站非杂志社官网,上千家国家级期刊、省级期刊、北大核心、南大核心、专业的职称论文发表网站。
职称论文发表、杂志论文发表、期刊征稿、期刊投稿,论文发表指导正规机构。是您首选最可靠,最快速的期刊论文发表网站。
免责声明:本网站部分资源、信息来源于网络,完全免费共享,仅供学习和研究使用,版权和著作权归原作者所有
如有不愿意被转载的情况,请通知我们删除已转载的信息 粤ICP备2023046998号