FreeBSD链路聚合不比单链路快

我们在FreeBSD 9.3 server1中放置了一个4端口 Intel I340-T4网卡,并在 LACP mode中将其配置为 link aggregation,以减少将8到16 TiB数据从主文件服务器镜像到并行2-4个克隆所需的时间.我们期望获得高达4 Gbit / sec的总带宽,但无论我们尝试过什么,它的速度都不会超过1 Gbit / sec ag​​gregate.2.

我们正在使用iperf3在静态LAN上测试它.第一个实例几乎达到千兆位,正如预期的那样,但当我们并行启动第二个时,两个客户端的速度下降到大约½Gbit/ sec.添加第三个客户端会将所有三个客户端的速度降低到〜⅓ Gbit / sec等.

我们已经注意设置iperf3测试,来自所有四个测试客户端的流量进入不同端口的中央交换机:

我们已经验证每个测试机器都有一个独立的路径返回到机架交换机,并且文件服务器,它的NIC和交换机都有带宽通过分解lagg0组并为其分配单独的IP地址来实现此目的.这个英特尔网卡上的四个接口中的每一个.在该配置中,我们确实实现了~4 Gbit / sec的聚合带宽.

当我们开始沿着这条路走下去的时候,我们用旧的SMC8024L2 managed switch做了这个.(PDF数据表,1.3 MB.)它不是当时最高端的开关,但它应该能够做到这一点.由于年龄的原因,我们认为转换可能是错误的,但升级到功能更强大的HP 2530-24G并未改变症状.

HP 2530-24G交换机声称有问题的四个端口确实配置为动态LACP中继:

# show trunks
Load Balancing Method:  L3-based (default)

  Port | Name                             Type      | Group Type    
  ---- + -------------------------------- --------- + ----- --------
  1    | Bart trunk 1                     100/1000T | Dyn1  LACP    
  3    | Bart trunk 2                     100/1000T | Dyn1  LACP    
  5    | Bart trunk 3                     100/1000T | Dyn1  LACP    
  7    | Bart trunk 4                     100/1000T | Dyn1  LACP

我们尝试过被动和主动LACP.

我们已经验证了所有四个NIC端口都在FreeBSD端获得流量:

$sudo tshark -n -i igb$n

奇怪的是,tshark表明,在只有一个客户端的情况下,交换机将1 Gbit / sec流分成两个端口,显然是在它们之间进行乒乓. (SMC和HP交换机都显示了这种行为.)

由于客户端的总带宽只汇集在一个地方 – 在服务器机架的交换机上 – 只为LACP配置了该交换机.

我们首先启动哪个客户端,或者我们启动它们的顺序并不重要.

FreeBSD方面的ifconfig lagg0说:

lagg0: flags=8843<UP,BROADCAST,RUNNING,SIMPLEX,MULTICAST> metric 0 mtu 1500
    options=401bb<RXCSUM,TXCSUM,VLAN_MTU,VLAN_HWTAGGING,JUMBO_MTU,VLAN_HWCSUM,TSO4,VLAN_HWTSO>
    ether 90:e2:ba:7b:0b:38
    inet 10.0.0.2 netmask 0xffffff00 broadcast 10.0.0.255
    inet6 fe80::92e2:baff:fe7b:b38%lagg0 prefixlen 64 scopeid 0xa 
    nd6 options=29<PERFORMNUD,IFDISABLED,AUTO_LINKLOCAL>
    media: Ethernet autoselect
    status: active
    laggproto lacp lagghash l2,l3,l4
    laggport: igb3 flags=1c<ACTIVE,COLLECTING,DISTRIBUTING>
    laggport: igb2 flags=1c<ACTIVE,DISTRIBUTING>
    laggport: igb1 flags=1c<ACTIVE,DISTRIBUTING>
    laggport: igb0 flags=1c<ACTIVE,DISTRIBUTING>

我们在the FreeBSD network tuning guide中应用了尽可能多的建议,这对我们的情况很有意义. (其中大部分都是无关紧要的,例如关于增加最大FD的东西.)

我们已经尝试过turning off TCP segmentation offloading,结果没有变化.

我们没有第二个4端口服务器NIC来设置第二个测试.由于使用4个独立接口进行了成功测试,我们假设没有任何硬件损坏

我们看到这些道路向前发展,它们都没有吸引力:

>购买更大,更糟糕的开关,希望SMC的LACP实施很糟糕,并且新开​​关会更好. (升级到HP 2530-24G没有帮助.)
>更多地盯着FreeBSD lagg配置,希望我们错过了一些东西
>忘记链接聚合并使用循环DNS来实现负载平衡.
>更换服务器NIC并再次切换,这次使用10 GigE,大约是此LACP实验硬件成本的4倍.

脚注

>为什么不转到FreeBSD 10,你问?因为FreeBSD 10.0-RELEASE仍然使用ZFS池版本28,并且该服务器已经升级到ZFS池5000,这是FreeBSD 9.3中的一个新功能.在FreeBSD 10.1发布about a month hence之前,10.x行不会得到.不然,从源代码重建到10.0-STABLE前沿不是一个选项,因为这是一个生产服务器.
>请不要妄下结论.我们在问题后面的测试结果告诉您为什么这不是this question的副本.
> iperf3是纯粹的网络测试.虽然最终目标是尝试从磁盘填充4 Gbit / sec聚合管道,但我们尚未涉及磁盘子系统.
>可能是越野车或设计不佳,但不会比它离开工厂时更加破碎.
>我已经因为这样做而睁大眼睛了.

在系统和交换机上使用的负载均衡算法是什么?

我所有的经验都是在Linux和Cisco上,而不是FreeBSD和SMC,但同样的理论仍然适用.

Linux绑定驱动程序的LACP模式以及较早的Cisco交换机(如2950)上的默认负载平衡模式是仅基于MAC地址进行平衡.

这意味着如果您的所有流量都从一个系统(文件服务器)传输到另一个MAC(交换机上的默认网关或交换虚拟接口),那么源MAC和目标MAC将是相同的,因此只有一个从站使用.

从您的图表中看起来您不会将流量发送到默认网关,但我不确定测试服务器是否在10.0.0.0/24中,或者测试系统是否位于其他子网中并且是通过交换机上的三层接口.

如果您在交换机上路由,那么就是您的答案.

解决方案是使用不同的负载平衡算法.

我再次没有使用BSD或SMC的经验,但Linux和思科可以根据L3信息(IP地址)或L4信息(端口号)进行平衡.

由于每个测试系统必须具有不同的IP,请尝试基于L3信息进行平衡.如果仍然无效,请更改几个IP,看看是否更改了负载平衡模式.

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


什么是设计模式一套被反复使用、多数人知晓的、经过分类编目的、代码 设计经验 的总结;使用设计模式是为了 可重用 代码、让代码 更容易 被他人理解、保证代码 可靠性;设计模式使代码编制  真正工程化;设计模式使软件工程的 基石脉络, 如同大厦的结构一样;并不直接用来完成代码的编写,而是 描述 在各种不同情况下,要怎么解决问题的一种方案;能使不稳定依赖于相对稳定、具体依赖于相对抽象,避免引
单一职责原则定义(Single Responsibility Principle,SRP)一个对象应该只包含 单一的职责,并且该职责被完整地封装在一个类中。Every  Object should have  a single responsibility, and that responsibility should be entirely encapsulated by t
动态代理和CGLib代理分不清吗,看看这篇文章,写的非常好,强烈推荐。原文截图*************************************************************************************************************************原文文本************
适配器模式将一个类的接口转换成客户期望的另一个接口,使得原本接口不兼容的类可以相互合作。
策略模式定义了一系列算法族,并封装在类中,它们之间可以互相替换,此模式让算法的变化独立于使用算法的客户。
设计模式讲的是如何编写可扩展、可维护、可读的高质量代码,它是针对软件开发中经常遇到的一些设计问题,总结出来的一套通用的解决方案。
模板方法模式在一个方法中定义一个算法的骨架,而将一些步骤延迟到子类中,使得子类可以在不改变算法结构的情况下,重新定义算法中的某些步骤。
迭代器模式提供了一种方法,用于遍历集合对象中的元素,而又不暴露其内部的细节。
外观模式又叫门面模式,它提供了一个统一的(高层)接口,用来访问子系统中的一群接口,使得子系统更容易使用。
单例模式(Singleton Design Pattern)保证一个类只能有一个实例,并提供一个全局访问点。
组合模式可以将对象组合成树形结构来表示“整体-部分”的层次结构,使得客户可以用一致的方式处理个别对象和对象组合。
装饰者模式能够更灵活的,动态的给对象添加其它功能,而不需要修改任何现有的底层代码。
观察者模式(Observer Design Pattern)定义了对象之间的一对多依赖,当对象状态改变的时候,所有依赖者都会自动收到通知。
代理模式为对象提供一个代理,来控制对该对象的访问。代理模式在不改变原始类代码的情况下,通过引入代理类来给原始类附加功能。
工厂模式(Factory Design Pattern)可细分为三种,分别是简单工厂,工厂方法和抽象工厂,它们都是为了更好的创建对象。
状态模式允许对象在内部状态改变时,改变它的行为,对象看起来好像改变了它的类。
命令模式将请求封装为对象,能够支持请求的排队执行、记录日志、撤销等功能。
备忘录模式(Memento Pattern)保存一个对象的某个状态,以便在适当的时候恢复对象。备忘录模式属于行为型模式。 基本介绍 **意图:**在不破坏封装性的前提下,捕获一个对象的内部状态,并在该
顾名思义,责任链模式(Chain of Responsibility Pattern)为请求创建了一个接收者对象的链。这种模式给予请求的类型,对请求的发送者和接收者进行解耦。这种类型的设计模式属于行为
享元模式(Flyweight Pattern)(轻量级)(共享元素)主要用于减少创建对象的数量,以减少内存占用和提高性能。这种类型的设计模式属于结构型模式,它提供了减少对象数量从而改善应用所需的对象结