首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

使用ethtool排查网卡速率问题

今天去现场帮一个客户排查备份网络速率问题。 用户期望是万兆的速率,但实际上目前只有千兆,因为目前上面运行着数据库,且数据量较大,千兆的备份网络速率不能满足用户备份数据库的时长要求。...首先,确认备份网络是由两块网卡(eth3,eth4)做了bonding,起名为bondeth1。...确认备份网络可以重启,将RAC两个节点的对应着两个网卡配置文件中的这行都注释掉,使用ifdown和ifup重启网卡。 还是1000Mb/s的速率(Speed:1000Mb/s)。...所以下一步思路是等交换机那边变更去掉限制,然后再观察看网卡是否可以能够自适应万兆速率。...此外,也发现业务网络同样存在一样的问题,但因为考虑到业务影响,所以暂时先不调整业务网卡,等备份网络正常后再由客户决策是否调整业务网卡

1.8K30
您找到你想要的搜索结果了吗?
是的
没有找到

对atbus的小数据包的优化

4.8.5 CPU: Xeon E3-1230 v2 3.30GHz*8 (sender和receiver都只用一个核心) 内存: 24GB (这是总内存,具体使用数根据配置不同而不同) 网络: 千兆网卡...gperftools 2.1(启用tcmalloc和cpu profile) CPU: Xeon X3440 2.53GHz*8 内存: 8GB (这是总内存,具体使用数根据配置不同而不同) 网络: 千兆网卡...这个可以用TLS机制实现,方法上一篇文章(Android和IOS的TLS问题)里提到过了,这里不再复述。...整个逻辑都会出问题,不差这一块。 而对于静态缓冲区而言就多一步操作,因为静态缓冲区是环形队列,那么头部和尾部的数据是不能合并的,否则可能缓冲区剩余空间不足。...而替换之前是没有这个问题的。 问题就在于这里,使用map方式实现的CRC32和CRC64性能太差了。我还不清楚具体的原因,不过猜测可能和CPU命中率有关。

6.8K20

解决glog在Docker环境下延时问题

业务反馈glog组件在Docker容器内运行延时比虚拟化机要高出不少,并提供了复现的程序,复现测试程序关键代码如下: image.png 问题有复现方法就比较好办了,运行测试程序然后采用性能调试工具...为了验证排查结论,通过将node的kernel启动参数nr_cpus修改为8后重启机器验证性能确实得到提升: image.png 对比同一个node限制nr_cpus数量后的测试数据可以看到限制为8核后延时得到了很大改善...: image.png image.png 既然已经确认了问题,那么怎么解决呢?...前面perf的信息已经显示了内核调用链是通过sys_fadvise64触发的,那么对应到用户态接口就是posix_fadvise函数,查看glog源码 也就是由下面的代码触发的问题,那么只要通过设置--...posix_fadvise(fileno(file_), 0, len, POSIX_FADV_DONTNEED); } } 增加--drop_log_memory = false后延时基本控制在

1.6K70

关于Oracle RAC调整网卡MTU值的问题

除此之外,还有一种解决方案就是选择调整私网网卡的MTU值,通常Oracle使用8k标准块大小时,会选择设置MTU=9000,从而减缓包重组失败次数的增长速率,期望的理想状态下是完全没有包重组失败的发生。...MTU为9000: ifconfig mtu 9000 查看MTU是否更改成功: ifconfig 修改私有网卡配置文件,添加MTU=9000的配置,以确保主机重启后MTU...当然理想环境下,不应该出现包重组失败的现象,但如果环境不够理想,那有没有一个参考值,多长时间内包重组失败超过多少次就会有问题?或者有其他的判定标准?...failed/{curr=$1;diff=curr-prev;if(diff>5)print d,diff,prev,curr;prev=curr}' *.dat 根据上述语句分析了10余套系统,唯有出现过问题的这套环境依然存在风险...最后要提一下的是,当出现这类问题时,还要配合检查私网本身是否存在问题,比如:网卡、网线、交换机等,都要确保状态正常,排除硬件本身的问题

1.8K50

【转】记一次 Redis 延时毛刺问题定位

整个系统的架构很简单: 在 Redis Proxy 可以观察到明显的请求耗时毛刺,因此可以确定问题确实出现在 Redis Proxy 调用 Redis 的某个环节 然而,为了定位该问题,仍然花费了很长的时间...: 该问题非必现,且不固定于某台机器 问题发现时,相同/类似毛刺现象涉及众多集群 在线的 Redis 版本缺少 P99 指标(耗时指标仅包括执行耗时,不包括包括等待耗时)耗时毛刺被平均之后无法观察到 问题定位...针对延迟毛刺性问题,是否有什么普适的定位方法呢? 首先,定位非必现的问题,首要条件就是获取问题发生的现场快照,获取更多的问题细节。...针对非必现的问题最好的方式,就是在可能出现问题的现场部署合适的脚本获取现场快照。 其次,最重要的是定位工具。本问题之所以定位耗时较长,是因为没有使用合适的工具缩小故障的范围。...使用它在问题现场,抓取到延迟前后 mmap 系统调用前后变化,问题出现前耗时为 11 us,问题发生时耗时为 177 ms,如下所示: # ebpf 抓取故障前后 mmap 耗时 $> syscount

19310

解决win10安装虚拟网卡,却没有自带虚拟网卡问题,详细贴图讲解

一般来说不会遇到我这种情况,大部分人遇到的虚拟网卡未安装都可以百度搜一下:虚拟网卡安装。按照步骤执行,加载过时硬件就可以装好。...我先详细说一下我的问题:我准备连接学校的vpn,但是始终连接不上,或者给我说个无法加载,我查了下原因,原来是我的虚拟网卡未安装,于是我就先百度吧,教程都是跟上面那个连接类似的:加载过时硬件,选择好厂家和硬件...但是,我的电脑没有自带的虚拟网卡,可能是因为我之前C盘爆满,一不小心被我清理掉了文件了。ok,大概描述了我的问题。 百度那些这种千篇一律的教程帮不了你,那就试试我这种,肯定就不会有问题了!...**勾选:虚拟机平台(我是解决问题的时候勾选了哈) **5.**之后确认,会提示你重启电脑,就根据提示重启电脑,系统会更新一下,大概等三分钟的样子,就ok了,连接VPN走起!...我是计算机大二的川川,有什么问题可以留言,也可以直接私问我: QQ:2835809579

8K20

从在线直播源码开发角度解决直播系统延时问题

直播内容从主播端采集到用户端观看,需要经过采集→前处理→编码→推流→分发→拉流→解码→播放的过程,每一个阶段都会消耗部分时间,但直播又必须保证观看的即时性,那么如何降低直播延迟便成了在线直播源码开发中的关键问题...网络波动会造成直播内容播放延时,甚至是直播卡顿,但这只是影响直播延时的外部因素,与在线直播源码本身没有关系。...针对于以上两点原因,如何解决直播系统延时问题呢?由于网络波动属于外部因素,从直播源码本身角度来讲,我们只能在网络丢包问题上去进行优化了。...首先,它延时低,通常能够降低到5s内,然后,它能够被三方内容分发网络普遍支持,最后,我们上述所说的丢包重连机制它也有,能够较好的保障在线直播的流畅性。...网络丢包所引起的直播延时问题,相对而言,在进行直播源码开发时还是比较容易解决的,依托源码本身的优化再配合搭建部署时的CDN选择即可。

2.1K30

如何解决消息队列的延时以及过期失效问题

面试题 如何解决消息队列的延时以及过期失效问题?消息队列满了以后该怎么处理?有几百万消息持续积压几小时,说说怎么解决?...面试官心理分析 你看这问法,其实本质针对的场景,都是说,可能你的消费端出了问题,不消费了;或者消费的速度极其慢。接着就坑爹了,可能你的消息队列集群的磁盘都快写满了,都没人消费,这个时候怎么办?...这个是我们真实遇到过的一个场景,确实是线上故障了,这个时候要不然就是修复 consumer 的问题,让它恢复消费速度,然后傻傻的等待几个小时消费完毕。这个肯定不能在面试的时候说吧。...一般这个时候,只能临时紧急扩容了,具体操作步骤和思路如下: 先修复 consumer 的问题,确保其恢复消费速度,然后将现有 consumer 都停掉。

2K30

音视频常见问题分析和解决:延时和抖动

问题背景: 在上一篇文章讲了音视频一些疑难问题的排查,其中一个比较重要的原则就是要将音视频作为一个系统来看待,问题有可能只是表现在播放端,但是根因有可能在编码端,也有可能发生在传输过程中。...其实对于音视频有些问题的优化,有时也要整体优化,比如延时这种问题。 下面我将会分析延迟的概念,延迟的产生和类型、延迟的优化三大部分的内容,最后再通过一两个小例子分享下我在解决延迟问题的优化实践。...也就是说因为数据包的延时值忽大忽小的现象我们称为是抖动。 可以看出延迟会造成抖动,但是抖动并不完全等价于延迟,所以有时我们分析实际问题时还是要加以区分。...下面有一个表格基本列举了不同业务对于低延时的大致要求,当然即使是同一个业务,应用在不同的场景下对于低延时要求也经常不一样,这就导致我们解决问题的技术手段也是不一样的。...案例2: 问题: 还有一个项目采用了自动切换网络传输协议的措施来降低延时,摄像头的视频一般要推送到云服务器上,然后才能进行大规模的转发和分发。

2.6K42
领券