我有两个ProxMox服务器,当我移动一个VM时,它会遇到性能问题。
ProxMox 3.4运行在Intel E5606上(2个CPU,每个核心4个,@2.13 GHz)。ProxMox 4.1运行在IntelXeonE5-2650L v3上(2个CPUS,每个CPUS 24个核,@1.8GHz)
我已经将两个VM从3.4服务器移动到4.1服务器(我在3.4服务器上做了备份,在4.1服务器上进行了还原)。
VM 816的性能似乎大致相同,但是VM 814的性能受到了很大的影响(现在需要4到6分钟才能启动)。
关于他们有趣的事情:
显然,直接可见的区别是一个是ide,一个是virtio。但在旧服务器上,它们恰恰是这样的--为什么新服务器的速度要慢得多呢?我确实尝试过将814切换到virtio,但是它没有启动。
最重要的是要弄清楚这是否与ProxMox 4.1上较新版本的KVM有关。我计划将旧服务器升级到最新的proxmox,但是如果它要破坏我的VM,这将是一个问题。
来自VM 814的uname -a : Linux SWBuild-Fedora.moberg 2.6.18-1.2798.fc6 #1 SMP 10月16日14:54:20 i686 i686 i386 GNU/Linux
来自VM 816的uname -a : Linux SWBuild 2.6.32-71.el6.i686 #1 SMP Fri 11月12日04:17:17 GMT 2010 i686 i686 i386 GNU/Linux
从ps获得的KVM线:
/usr/bin/kvm -id 814 -chardev套接字、id=qmp、path=/var/run/qemu/814.qmp、服务器、nowait -mon chardev=qmp、mode=control -vnc unix:/var/run/qemu- server /814.vnc、x509、密码-pidfile /var/run/qemu-server/814.pid -daemonize -smbios type=1,uuid=709a3672-bb7e-bb88-9815-69129f612924 -name SWBuild-Fedora -smp 1、sockets=1、cores=1、maxcpus=1 sockets=1、#en23 20#、重新启动=1000 run coreduo、23、#24#en23##enen24、#en24执行initiator-name=iqn.1993-08.org.debian:01:1a1a811322d 512 -k en-us -device pci桥,id=pci.1,chassis_nr=1,bus=pci.0,addr=0x1e -device pci-桥接,id=pci.2,chassis_nr=2,bus=pci.0,addr=0x1f -device piix3-usb-uhci,id=uhci,bus=pci.0,addr=0x1.0x2 -device virtio-pci,en22 en23 en24#id=drid-ide0,,检测-零= -device ide-hd、bus=ide.0、unit=0、驱动器=驱动器-id 0、id=ide0、bootindex=100 -drive if=none、id=驱动器2、media=cdrom、aio=threads -device ide-cd、bus=ide.1、unit=0、驱动器=驱动器-ide2、id=ide2、bootindex=200 -netdev type=tap、id=net0、script=/var/lib/qemu-server/pve、-device on 20#、
/usr/bin/kvm -id 816 -chardev套接字、id=qmp、path=/var/run/qemu/816.qmp、服务器、nowait -mon chardev=qmp、mode=control -vnc unix:/var/run/qemu- server /816.vnc、x509、密码-pidfile /var/run/qemu-server/816.pid -daemonize -smbios type=1、uuid=06458c85-061e-4783-9152-e0d7f8a965d -name SWBuild-CentOS -smp 1、sockets=1、cores=1、maxcpus=1 sockets=1、#en23 20、重新启动=1000 run coreduo、23、#en24、#en24。执行initiator-name=iqn.1993-08.org.debian:01:1a1a811322d 512 -k en-us -device pci桥,id=pci.1,chassis_nr=1,bus=pci.0,addr=0x1e -device pci-桥接,id=pci.2,chassis_nr=2,bus=pci.0,addr=0x1f -device piix3-usb-uhci,id=uhci,bus=pci.0,addr=0x1.0x2 -device virtio-pci,en22 en23 en24#id=驱动器,,检测-零= -device virtio-blk-pci,驱动器=驱动器-virtio 0,id=virtio0,bus=pci.0,addr=0xa,bootindex=100 -drive if=none,id=驱动器2,media=cdrom,aio=threads -device ide-cd,bus=ide.1,unit=0,驱动器=驱动器-ide2,id=ide2,bootindex=200 -netdev type=tap,id=net0,script=/var/lib/qemu-server/pve,-device on 20#,,
注意:在814上修改操作系统并不是一种选择--这个VM是从现实世界的硬件中获取的图像构建的,这样我们就可以保存它了。它用于为一些旧的系统构建,而且我们真的没有时间验证修改过的构建系统。
更新:问题的根源可能是两台服务器上RAID卡的差异。当指定较新的服务器时,另一个管理员记得我们没有RAID卡的闪存模块,所以我们以同样的方式对新服务器进行了配置。
进一步的研究表明,我们在旧服务器中确实有flash模块,并且它是活动的,提供了写缓存。这与不同的访问模式相结合,很可能是性能差异的根源。
发布于 2016-06-06 17:32:28
我真的不明白为什么VM行为不当,但我发现,如果我为该VM打开了回写缓存,它就会正常运行。
https://serverfault.com/questions/782260
复制相似问题