我们想模拟在公共云(例如AWS EC2)中使用VM的位置影响.
为此,我们希望在数据包中注入延迟,以便我们可以模拟特定的网络拓扑.
假设有三个VM:A,B,C
| A | <- 5 μs delay -> B | <---- 25 μs delay ----> C
对于A和B之间的连接,我们怎样才能最容易地注入5μs延迟(或任意值),而A和C之间的延迟为25μs?任何解决方案都受到赞赏(每个VM上的Linux内核级别更改/创建覆盖网络/ …).
解决方法
可以通过Linux内核支持的流量整形算法来模拟创建延迟.从
netem
manual:
# tc qdisc add dev eth0 root handle 1: prio # tc qdisc add dev eth0 parent 1:3 handle 30: tbf rate 20kbit buffer 1600 limit 3000 # tc qdisc add dev eth0 parent 30:1 handle 31: netem delay 200ms 10ms distribution normal # tc filter add dev eth0 protocol ip parent 1:0 prio 3 u32 match ip dst <IP_of_server_B>/32 flowid 1:3
其中,当在服务器A上发布时,会产生200毫秒的延迟,其中服务器B的流量随机变化为±10毫秒.
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。