25
2025
06
18:56:29

100G 网络速率调优—其他调优

Other Tuning

本页面汇总了其他一些 100G 网络的调优选项。在 ESnet 硬件上进行的测试中,这些设置并非总是能起到优化效果,尤其是在局域网环境下。但我们将其列出,以便你可以自行进行试验。其中一些设置可能在较旧的操作系统中会有帮助。如果你使用这些设置取得了效果,请告知我们结果。

我们建议将这些设置保持为默认值,而且在较新版本的 Linux 系统中,这些设置似乎都不会对性能产生影响:

  • 中断合并(ethtool -c
    • 默认情况下应处于开启状态,无需更改 rx-usecs 或 tx-usecs 的计时值。
  • 大型接收卸载(LRO)和通用接收卸载(GRO)(ethtool -k
    • 默认设置(LRO 关闭,GRO 开启)效果最佳。
  • 增加传输队列长度(/sbin/ip link set dev $ETH txqueuelen 10000
    • 在局域网中,默认值 1000 效果就很好,但在广域网中,设置为 10000 通常会有所帮助。

  • 增大 net.core.netdev 设置(在 /etc/sysctl.conf 中),在广域网中有时也会有帮助。但我们也遇到过更改这些值后吞吐量大幅下降的情况,因此请谨慎使用!

netdev 的默认值如下:

net.core.netdev_budget = 300 
net.core.netdev_budget_usecs = 2000 
net.core.netdev_max_backlog = 1000 

在某些主机上,使用以下设置可以提高吞吐量:

net.core.netdev_budget = 600 
net.core.netdev_budget_usecs = 4000 
net.core.netdev_max_backlog = 250000

或者,对于延迟较高的链路,以下设置可能会进一步提高吞吐量:

net.core.netdev_budget = 8000 
net.core.netdev_budget_usecs = 100000 
net.core.netdev_max_backlog = 1000000 

我们建议你在自己的环境中尝试这些值,找出最适合你的设置。


其他调优方式


  • 通过 setpci 进行 PCI 调优

    https://enterprise-support.nvidia.com/s/article/understanding-pcie-configuration-for-maximum-performance

    • 在我们的主机上没有显著影响,但建议你自行测试,特别是对于数据传输节点(DTN)。
  • 加速接收流转向

    https://enterprise-support.nvidia.com/s/article/howto-configure-arfs-on-connectx-4

    • 在我们的主机上没有效果。
  • 应用程序设备队列(ADQ)和以太网流定向器(仅适用于英特尔设备)

    https://edc.intel.com/content/www/ca/fr/design/products/ethernet/appnote-e810-adq-config-guide/configure-intel-ethernet-flow-director-settings/

    https://www.intel.com/content/www/us/en/developer/articles/training/setting-up-intel-ethernet-flow-director.html

    • 不支持 VLAN,因此无法进行测试。

Src

https://fasterdata.es.net/host-tuning/linux/100g-tuning/other-tuning/




推荐本站淘宝优惠价购买喜欢的宝贝:

image.png

本文链接:https://www.hqyman.cn/post/11887.html 非本站原创文章欢迎转载,原创文章需保留本站地址!

分享到:
打赏





休息一下~~


« 上一篇 下一篇 »

发表评论:

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

请先 登录 再评论,若不是会员请先 注册

您的IP地址是: