Other Tuning
本页面汇总了其他一些 100G 网络的调优选项。在 ESnet 硬件上进行的测试中,这些设置并非总是能起到优化效果,尤其是在局域网环境下。但我们将其列出,以便你可以自行进行试验。其中一些设置可能在较旧的操作系统中会有帮助。如果你使用这些设置取得了效果,请告知我们结果。
我们建议将这些设置保持为默认值,而且在较新版本的 Linux 系统中,这些设置似乎都不会对性能产生影响:
中断合并( ethtool -c
)默认情况下应处于开启状态,无需更改 rx-usecs
或tx-usecs
的计时值。大型接收卸载(LRO)和通用接收卸载(GRO)( ethtool -k
)默认设置(LRO 关闭,GRO 开启)效果最佳。 增加传输队列长度( /sbin/ip link set dev $ETH txqueuelen 10000
)在局域网中,默认值 1000 效果就很好,但在广域网中,设置为 10000 通常会有所帮助。 增大 net.core.netdev
设置(在/etc/sysctl.conf
中),在广域网中有时也会有帮助。但我们也遇到过更改这些值后吞吐量大幅下降的情况,因此请谨慎使用!
netdev
的默认值如下:
net.core.netdev_budget = 300
net.core.netdev_budget_usecs = 2000
net.core.netdev_max_backlog = 1000
在某些主机上,使用以下设置可以提高吞吐量:
net.core.netdev_budget = 600
net.core.netdev_budget_usecs = 4000
net.core.netdev_max_backlog = 250000
或者,对于延迟较高的链路,以下设置可能会进一步提高吞吐量:
net.core.netdev_budget = 8000
net.core.netdev_budget_usecs = 100000
net.core.netdev_max_backlog = 1000000
我们建议你在自己的环境中尝试这些值,找出最适合你的设置。
其他调优方式
通过 setpci
进行 PCI 调优https://enterprise-support.nvidia.com/s/article/understanding-pcie-configuration-for-maximum-performance
在我们的主机上没有显著影响,但建议你自行测试,特别是对于数据传输节点(DTN)。 加速接收流转向 https://enterprise-support.nvidia.com/s/article/howto-configure-arfs-on-connectx-4
在我们的主机上没有效果。 应用程序设备队列(ADQ)和以太网流定向器(仅适用于英特尔设备) https://edc.intel.com/content/www/ca/fr/design/products/ethernet/appnote-e810-adq-config-guide/configure-intel-ethernet-flow-director-settings/
https://www.intel.com/content/www/us/en/developer/articles/training/setting-up-intel-ethernet-flow-director.html
不支持 VLAN,因此无法进行测试。
Src
https://fasterdata.es.net/host-tuning/linux/100g-tuning/other-tuning/
推荐本站淘宝优惠价购买喜欢的宝贝:
本文链接:https://www.hqyman.cn/post/11887.html 非本站原创文章欢迎转载,原创文章需保留本站地址!
休息一下~~