云端计算模型的MATLAB仿真与分析

1.问题描述:

        用matlab模拟,基本上可以说是一个排队理论。输入一堆包,经过buffer(一个或者几个都行)传给server,这些包会在buffer里面进行排队,采取FIFO的排序方法。

用到了一个公式

q(t)=max(0,q(t-1)+a(t)-1)

意思是现在在buffer里面排队的数据包的个数 是等于 前一时间排队的数据包的个数加上新到达的数据包的个数,减去离开的也就是被处理的数据包的个数。值随时间变化。

在传输的过程中,要用Poisson Random Variable的公式生成随机的traffic。

最后输出的结果要求是q(t)的柱状图,主要结果是要比较最开始每个包之间的时间,和经过buffer还有traffic影响之后到达的每个包之间的

おすすめ

転載: blog.csdn.net/ccsss22/article/details/120204215