首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

网站用户访问逐渐增加,如何增加服务器承载能力?

当网站已经有不少用户了之后,随着企业业务的不断深入,网站的用户也会不断增加,那么服务器需要同时承载的用户数也在不断的增加,服务器的配置是既定的,如何才能增加服务器承载能力呢?数据湾分享:

一、负载均衡

对于用户数较多、负载较大的网站,通常都会使用负载均衡(LB:LoadBalance)来增加服务器的承载能力。负载均衡有很多种不同的实现方式,从实现方式看,可以分为硬件负载均衡与软件负载均衡两大类。

硬件负载均衡有大名鼎鼎的F5之类,这种不差钱的企业会采用。但是现在互联网公司用的越来越少。现在硬件使用较多的是使用支持OSPF协议的交换机(基本都支持了),通过ECMP做的负载均衡集群。但硬件负载均衡解决方案也有缺点,比如设备和服务费用昂贵,灵活性差,功能和容量都难以扩展。

软件负载均衡相对来说,灵活性强,扩展起来更容易,所以软件负载均衡解决方案越来越受到青睐。

负载均衡到底是怎么回事可以看看下面这个例子:

例如:想象下有一万个用户在一分钟内来访问你的服务器。

遗憾的是,你的服务器在一分钟内只能保证5千个用户的流畅访问。这怎么办呢?同时运行两个服务器就行了,就是增加了服务器来分配负载。

负载均衡器的功能就是把访问请求分发到两台服务器上。用户1往左,用户2往右,用户3再往左。。。以此类推。

如果一次有100万个用户同时访问服务器,这该怎么解决呢?确切地说,你可以扩展到200台付款服务器,之后让负载均衡器分发请求到这200服务器上。

二、缓存和内容分发网络(CDN)

我们使用缓存而不是对每个请求都重新处理,缓存用于记住最后一次的结果并交由其他服务或者客户端,这样就不用每次都请求后端服务了。

简单的说,CDN的工作原理就是将您源站的资源缓存到位于全球各地的CDN节点上,用户请求资源时,就近返回节点上缓存的资源,而不需要每个用户的请求都回您的源站获取,避免网络拥塞、缓解源站压力,保证用户访问资源的速度和体验。

三、分片处理

分片究竟是什么意思呢?其实也很简单:Facebook上需要为20亿用户提供个人资料,可以把你的应用架构分解为26个mini-Facebook。

用户名如果以A开头,会被mini-facebookA服务器处理,用户名如果以B开头,会被mini-facebookB服务器来处理……

分片不一定按字母顺序,根据业务需要,你可以基于任何数量的因素,比如位置、使用频率(特权用户被路由到好的硬件)等等。你可以根据需要以这种方式切分服务器、数据库或其他方面。

各位看官怎么看呢?

想了解更多有关服务器的知识和内容请关注我吧或者点击下方的了解更多进入小湾的主页!

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20200528A0JF2T00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券