首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    安卓实现安卓-光速虚拟机技术内幕

    光速虚拟机是基于安卓系统和ARM处理器架构实现的一套虚拟化技术,在安卓系统的用户态空间无需特殊权限实现了一套完整的安卓内核和硬件抽象层,能够在安卓APP内部运行另外一个安卓系统,虚拟机内部的APP和游戏运行性能能够接近真机的运行性能和兼容性。光速虚拟机也可以认为是一种安卓系统上的库操作系统(libos)。从行业的情况来看,微软和Google分别在不同系统上实现过类似的方案,微软DrawBridge是在Windows上实现Windows,以及其后续发展出来的WSL是Windows上实现linux,Google的gVisor则是linux上实现linux。光速虚拟机是通过安卓来实现安卓。光速虚拟机是市面上第一家在手机上实现完整安卓虚拟化的产品。

    049

    你知道一台Linux服务器可以负载多少个连接吗

    首先我们来看如何标识一个TCP连接?系统是通过一个四元组来识别,(src_ip,src_port,dst_ip,dst_port)即源IP、源端口、目标IP、目标端口。比如我们有一台服务192.168.0.1,开启端口80.那么所有的客户端都会连接到这台服务的80端口上面。有一种误解,就是我们常说一台机器有65536个端口,那么承载的连接数就是65536个,这个说法是极其错误的,这就混淆了源端口和访问目标端口。我们做压测的时候,利用压测客户端,这个客户端的连接数是受到端口数的限制,但是服务器上面的连接数可以达到成千上万个,一般可以达到百万(4C8G配置),至于上限是多少,需要看优化的程度。具体做法如下:

    03

    [linux][atop]atop的改进和在统计io上遇到的问题

    前言 互联网公司一般都会运行着几千到几万的服务器。一般的监控会采用类似ganglia/falcon类似的工具,在本地启动一个agent,把数据统计上报到集中式的服务器中,用来监控和分析系统的问题。 另外,有atop这样的工具,可以运行在服务器上,在本地写下record文件,atop命令本身也可以分析record文件,其中保存的数据的粒度更加细致,可以精确到线程级别,还有IPC,主频等等。 经验来看,atop每天生成的record文件大约500M左右,保存最近的一段时间,似乎也不是问题。用集中式的监控,配合上atop,对于问题分析来说,会有一些帮助。 分析 1,atop的改进 atop的代码量本身并不大,官方的代码在: https://github.com/Atoptool/atop.git 在使用atop的过程中,遇到了一些问题,作者也做了相应的修改: https://github.com/bytedance/atop 在bytedance-features分支上。作者把patch发送给maintainer,但是maintainer一直没有回复。在这里,列举一下改动的内容,如下。 2,smaps的优化 尝试使用smaps_rollup代替smaps,用来提高atop收集进程的PSS内存使用的效率。这个patch会在4.14上有所提升。一般情况下,建议在atop收集的时候不要加上-R选项。因为在atop读/proc/PID/smaps的时候,会walk整个PID进程的页表,期间会lock住内存页表的锁。如果在这期间PID进程发生了page fault,也需要lock,就会造成锁的进程。影响PID进程的性能。 3,数据破损问题 atop使用裸数据的方式保存record文件,其中包括三部分:raw record,就是头信息; scompbuf,是系统状态信息的数据; pcompbuf,是task级的状态信息数据,大小和task数量有关系。为了减小record文件的大小,对于 scompbuf和pcompbuf还采用了压缩。所以,数据必须完整的 rr,scompbuf,pcompbuf顺序写下去的,否则atop无法识别数据。 good case : ... rr,scompbuf,pcompbuf ... rr,scompbuf,pcompbuf ... bad case : ... rr,scompbuf[missing] ... rr,scompbuf,pcompbuf … 例如上面的例子,在写完rr,scompbuf之后,atop发生了crash,再重新启动,就会丢失后面的 pcompbuf,造成了整个record文件的不可用。 在patch中,作者使用writev进行写入数据,要么都写入成功,要么都写入不成功,用来防止这种case发生。 4,IPC造成的虚拟机性能抖动 IPC,instructions per cycle。可以用来衡量CPU运行的效率。通常是通过perf采集的数据。 提到perf,就要说明一下它的工作原理:intel的CPU上集成了PMU,用来采集硬件的信息。可以收集的硬件信息很多,可以通过perf list | grep Hardware来看。但是硬件的寄存器有数量限制,所以需要通过wrmsr指令告诉CPU收集哪些具体的事件,再通过rdpmc指令来读取对应的数据。 在虚拟化场景下,在虚拟机中使用PMU又复杂了一下,在虚拟机中执行wrmsr和rdpmc的时候,都需要虚拟机从none-root模式退出,影响了虚拟机的性能。 在patch中,作者让atop支持perfevents的配置,支持三种模式:enable模式,启用perf收集IPC。disable模式,禁用perf收集IPC。auto模式,在启动的时候,atop自动检查是否在虚拟机中运行,如果在虚拟机中,禁用;在物理级中,启用。默认是auto模式。 5,减小record文件 如果是大规格的服务器,40CPU,甚至到96CPU,通常运行大量的docker,里面运行了很多的task。其中很多task占用资源很少,但是依然会占用atop的record文件。 在patch中,支持了配置参数recordcputop & recordmemtop。用来配置收集cpu和内存的topN。其他的task可以忽略。作者测试线上的服务器36CPU, about 500 processes的场景,大约节省了40%的磁盘空间。 6,加速读record 一般在ganglia上看到系统抖动,例如下午三点十分,在对应的服务器上执行: atop -r / var/log/atop/atop_xxxx -b 15:10 如前文所述,因为rawrecord的原因,则会从头读到尾,直到匹配到对应的时间。对于log盘的使用,尤其是虚拟化场景,会限制IOPS。这

    02

    HAProxy代理MySQL Cluster集群安装

    安装代理接口 1.检查操作系统版本和内核版本 lsb_release  操作系统 ********************************** LSB Version:    :core-3.1-amd64:core-3.1-ia32:core-3.1-noarch:graphics-3.1-amd64:graphics-3.1-ia32:graphics-3.1-noarch  Distributor ID: RedHatEnterpriseServer  Description:    Red Hat Enterprise Linux Server release 5.4 (Tikanga)  Release:        5.4  Codename:      Tikanga  **********************************  uname -r    内核版本 ********************************** 2.6.18-164.el5  **********************************  2.安装代理接口  在线代理下载HAproxy 1.5.9版本  安装步骤  (1)tar xzvf haproxy-1.5.9.tar.gz  **********************************  haproxy-1.5.9/  haproxy-1.5.9/.gitignore  haproxy-1.5.9/CHANGELOG  haproxy-1.5.9/LICENSE  haproxy-1.5.9/Makefile  haproxy-1.5.9/README  haproxy-1.5.9/ROADMAP  haproxy-1.5.9/SUBVERS  haproxy-1.5.9/VERDATE  haproxy-1.5.9/VERSION  haproxy-1.5.9/contrib/  ......  haproxy-1.5.9/tests/test_hashes.c  haproxy-1.5.9/tests/test_pools.c  haproxy-1.5.9/tests/testinet.c  haproxy-1.5.9/tests/uri_hash.c  *****************************************************  (2)针对内核版本进行安装  安装前先要看看内核的版本,我这里是2.6.18  make TARGET=linux26 PREFIX=/usr/local/hapropxy  make install PREFIX=/usr/local/haproxy  (3)设置配置文件 cd /usr/local/haproxy  vi haproxy.cfg  *****************************************************  ###########全局配置#########  global    log 127.0.0.1  local0 #[日志输出配置,所有日志都记录在本机,通过local0输出]    log 127.0.0.1  local1 notice  #定义haproxy 日志级别[error warringinfo debug]    daemon      #以后台形式运行harpoxy    #nbproc 1  #设置进程数量    pidfile /usr/local/haproxy/haproxy.pid  #haproxy 进程PID文件    #ulimit-n 819200  #ulimit 的数量限制    maxconn 4096    #默认最大连接数,需考虑ulimit-n限制    chroot /usr/local/haproxy  #chroot运行路径    uid 99                    #运行haproxy 用户 UID    gid 99                    #运行haproxy 用户组gid    #debug      #haproxy 调试级别,建议只在开启单进程的时候调试    #quiet   ########默认配置############  defaults        log global          mode http              #默认的模式mode { tcp|http|health },tcp是4层,http是7层,health只会返回OK          #option  httplog        #日

    01
    领券